ChatGPT exige cuidados ao ser usado como ferramenta de pesquisa (NurPhoto / Colaborador/Getty Images)
Redação Exame
Publicado em 13 de junho de 2023 às 11h51.
A OpenAI, empresa responsável por criar o ChatGPT, se tornou alvo de um processo nos Estados Unidos que pode ser a primeira ação do tipo contra a companhia. Um radialista acusa a empresa de praticar difamação contra ele, após a ferramenta de inteligência artificial compartilhar informações falsas sobre seu passado.
O processo foi aberto em um tribunal no estado da Georgia pelo radialista Mark Walters. Ele alega que o ChatGPT compartilhou informações falsas sobre ele ao ser questionado pelo jornalista Fred Riehl, que também é citado na ação. A inteligência artificial teria afirmado que Walters foi investigado por desviar fundos de uma ONG, o que nunca ocorreu.
Segundo os documentos submetidos ao tribunal, Riehl teria enviado para a ferramenta um link para um documento e solicitado uma análise por parte da inteligência artificial. Ela, então, apresentou um resumo das informações contidas no documento - referente a um processo real -, mas com informações inventadas sobre Walters, alegando que ele teria desviado mais de US$ 5 milhões de uma ONG.
As informações não apenas eram falsas, como Walters nem era citado no processo original fornecido por Riehl. Entretanto, a acusação contra a OpenAI afirma que a informação inventada foi fornecida de forma detalhada e convincente, sem correção por parte da ferramenta.
Apesar de Riehl não ter publicado essas informações e ter checado sua veracidade com outras fontes, Walters acabou descobrindo a existência das acusações falsas no ChatGPT, o motivando a processar a OpenAI. Os detalhes sobre o caso ainda não foram divulgados, mas o radialista pede uma indenização para a empresa.
Em uma publicação sobre o tema, o professor de direito da Universidade da Califórnia Eugene Volokh destacou que o caso pode ser o "primeiro processo de difamação" contra a OpenAI. Na visão dele, "casos de difamação [contra a OpenAI] são, a princípio, legalmente viáveis. Mas esse processo em específico é difícil de se sustentar".
O motivo, na visão do professor, a OpenAI pode sair vitoriosa no processo porque Walters não tentou avisar a companhia sobre os erros para que eles fossem corrigidos, além de não ter apresentado consequências concretas de possíveis danos gerados pelas informações falsas.
"Suponho que Walters poderia argumentar que a OpenAI sabe que o ChatGPT geralmente publica declarações falsas (ele publica, e a OpenAI de fato reconheceu isso), mesmo que não soubesse sobre as declarações falsas sobre Walters em particular. Mas não acho que esse conhecimento geral seja suficiente", explicou o professor.
Casos como o de Walters e de um advogado que usou o ChatGPT em um processo mas obteve informações inventadas levantam o debate sobre possíveis "mentiras" contadas pela inteligência artificial. Cientistas se referem a essas situações como "alucinações" de inteligências artificias.
À EXAME, especialistas explicaram que é impreciso dizer que o ChatGPT "mente", já que ele não possui essa intenção. As alucinações se referem à criação de conteúdo que não estava previsto na base de dados usada para treinar uma IA, e por isso esse material pode conter imprecisões e conteúdo falso.
Relatos de outras alucinações na ferramenta despertaram críticas contra o bot, mas também mostram a importância de ter cuidado ao usá-lo como uma fonte de pesquisa e sempre verificar as informações fornecidas. Diogo Cortiz, professor da PUC-SP, destacou à EXAME que é importante lembrar da função principal da ferramenta: fornecer textos convincentes, e não necessariamente verdadeiros.
"Se pensar no erro, ele ocorre quando a máquina se comporta de um jeito que não foi programada pra fazer, uma exceção. Mas, um modelo de linguagem como o ChatGPT é construído para dar uma resposta, produzir um texto de saída. Se ele produz algo que seja coerente, tralhando com a probabilidade de relação com as palavras, ele não está errando, mas pode construir algo que não condiz com a realidade", afirma.
Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência. O que falta para você investir em crypto com a Mynt?
Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube | Telegram | Tik Tok