Inteligência artificial de Musk cria fake news com poucas palavras
O Open AI decidiu não divulgar o código nem disponibilizar seu software, dado o potencial destrutivo
Lucas Agrela
Publicado em 16 de fevereiro de 2019 às 05h55.
Última atualização em 16 de fevereiro de 2019 às 05h55.
A OpenAI, um grupo de pesquisa em inteligência artificial cofundado pelo bilionário Elon Musk , fez uma demonstração de um software capaz de produzir notícias falsas que parecem autênticas após receber apenas algumas informações.
Em um exemplo publicado na quinta-feira pela OpenAI, o sistema recebeu um texto de exemplo: “Um vagão de trem contendo materiais nucleares controlados foi roubado hoje em Cincinnati. O paradeiro dele é desconhecido.” A partir disso, o software foi capaz de gerar um convincente artigo de sete parágrafos, incluindo citações de representantes do governo, tendo como único senão o fato de ser totalmente falso.
“Os textos que são possíveis gerar com poucos detalhes são muito impressionantes”, disse Sam Bowman, cientista da computação da Universidade de Nova York especializado em processamento de linguagem natural, que não participou do projeto OpenAI, mas foi informado a respeito. “O software é capaz de fazer coisas qualitativamente muito mais sofisticadas do que qualquer coisa antes vista.”
A OpenAI está ciente das preocupações em relação às fake news, disse Jack Clark, diretor de política da organização. “Um dos propósitos não tão bons seria a desinformação, porque o software é capaz de produzir textos que soam coerentes, mas que não são precisos”, disse.
Como precaução, a OpenAI decidiu não publicar, nem disponibilizar as versões mais sofisticadas de seu software. A empresa, no entanto, criou uma ferramenta que permite que autoridades, jornalistas, escritores e artistas façam experiências com o algoritmo para ver que tipo de texto ele é capaz de gerar e que outros tipos de tarefa pode executar.
O potencial de o software conseguir criar notícias falsas quase instantaneamente surge em meio a preocupações globais a respeito do papel da tecnologia na disseminação da desinformação. Os órgãos reguladores europeus ameaçaram tomar medidas se as empresas de tecnologia não se esforçarem mais para evitar que seus produtos ajudem a influenciar eleitores e o Facebook trabalha desde a eleição presidencial americana de 2016 para tentar conter a disseminação de informações falsas em sua plataforma.
Clark e Bowman disseram que, por enquanto, as habilidades do sistema não são suficientemente consistentes para representar uma ameaça imediata. “A tecnologia atualmente não está pronta para uso, o que é positivo”, disse Clark.
Revelada em um trabalho acadêmico e em uma postagem de blog na quinta-feira, a criação da OpenAI é treinada para uma tarefa conhecida como linguagem de modelagem, que consiste na previsão da próxima palavra de um texto com base no conhecimento de todas as palavras anteriores, funcionamento semelhante ao do recurso autocompletar ao escrever um e-mail ou digitar no celular. Ela também pode ser usada para tradução e para responder a perguntas abertas.
Um possível uso é ajudar redatores criativos a gerar ideias ou diálogos, disse Jeff Wu, pesquisador da OpenAI que trabalhou no projeto. Entre as demais utilidades está a verificação de erros gramaticais em textos ou a busca por erros em códigos de softwares. O sistema poderia ser ajustado no futuro para resumir textos para tomadores de decisão corporativos ou do governo, disse.