Inteligência Artificial: a China adotou normas para regular as manipulações digitais, mas a maioria dos países parece lutar para se manter em dia com tecnologias de rápida evolução (Reprodução/Reprodução)
AFP
Publicado em 6 de fevereiro de 2023 às 18h18.
Robôs que propagam informações erradas por meio de um chat, aplicativos que produzem vídeos pornográficos e vozes clonadas que enganam milhões de empresas: diante do auge da desinformação criada por inteligência artificial (IA), os governos começam a organizar sua resposta.
A IA está redefinindo o ditado “ver para crer”, com uma avalanche de imagens criadas do nada e declarações saindo da boca de pessoas que nunca as disseram, tudo com um realismo desconcertante. Os chamados “deepfakes” estão minando a confiança na internet.
Recentemente, a China adotou normas para regular as manipulações digitais, mas a maioria dos países parece lutar para se manter em dia com tecnologias de rápida evolução, em meio a preocupações de que a regulamentação prejudique a inovação ou seja mal utilizada e restrinja a liberdade de expressão.
Especialistas alertam que as ferramentas para detectar esse tipo de conteúdo são superadas por seus criadores, que atuam anonimamente graças a técnicas de IA que antes exigiam certa especialização, mas hoje são acessíveis e de baixo custo.
A Meta, proprietária do Facebook, Instagram e WhatsApp, anunciou no ano passado a remoção de um vídeo falso do presidente ucraniano Volodymyr Zelensky convocando os cidadãos a pegar em armas contra as tropas russas.
Kate Isaacs, uma britânica que faz campanha pela retirada de pornografia sem consentimento do site Pornhub, teve em outubro um vídeo pornô falso com seu rosto publicado no Twitter.
A ampla possibilidade de criar de forma automatizada conteúdos enganosos em texto, áudio e vídeo e seu uso potencialmente malicioso geram sérias preocupações em todo o mundo.
Essas tecnologias foram batizadas como “armas de disrupção em massa” pela empresa de análise de riscos Eurasia Group.
Na semana passada, a startup britânica ElevenLabs, que está desenvolvendo uma ferramenta de clonagem de voz por inteligência artificial, admitiu que havia constatado um “crescente número de usos indevidos” de seu software.
O aumento de deepfakes poderia levar a um “apocalipse da informação”, um cenário em que muitos não conseguem distinguir a realidade da ficção e saber quais fontes são confiáveis, alertou a Europol, agência policial europeia.
Um exemplo do fenômeno ocorreu dias atrás, quando o jogador de futebol americano Damar Hamlin agradeceu em vídeo à equipe médica que o atendeu após uma parada cardíaca durante um jogo. Seguidores de teorias da conspiração, convencidos de que Hamlin havia sido afetado pela vacina contra covid-19, consideraram se tratar de um deepfake.
A China anunciou em janeiro novas normas que exigem que as empresas chinesas que oferecem esse tipo de recurso obtenham a identidade real de seus usuários. Também obrigam a aplicação de um aviso sobre os deepfakes para evitar que o público se confunda.
Nos Estados Unidos, legisladores pressionam pela criação de um grupo de trabalho voltado para o monitoramento dessas falsificações. Mas defensores dos direitos digitais temem obstáculos aos avanços tecnológicos e que conteúdos legítimos sejam afetados.
O governo do Reino Unido disse em novembro que tornaria ilegal o compartilhamento deepfakes pornográficos sem o aval das vítimas.
Enquanto isso, a União Europeia está imersa em acaloradas discussões sobre um projeto de lei sobre IA, supostamente a fim de fomentar a inovação e evitar abusos. Segundo o texto, os usuários deverão esclarecer que estão publicando algo falso, mas alguns não acreditam que seja suficiente.
“As ferramentas (de detecção de deepfakes) estão chegando e bem rápido. Porém, a tecnologia provavelmente está avançando ainda mais rápido. Assim como com a cibersegurança, nunca resolveremos este problema, podemos apenas esperar manter o ritmo”, afirmou à AFP Jason Davis, professor da Universidade de Syracuse.
Muitos custam a entender novas ferramentas como o ChatGPT, um chatbot capaz de gerar, sob demanda e em segundos, textos surpreendentemente convincentes sobre quase qualquer tema.
A NewsGuard, que classifica fontes de notícias segundo sua confiabilidade, o descreveu como um “novo superpropagador de desinformação”, pois o ChatGPT deu respostas “falsas e enganosas” a perguntas sobre covid-19 e tiroteios em escolas.