ChatGPT é usado por advogado em processo, mas fornece informações falsas
Caso ocorreu nos Estados Unidos, com inteligência artificial criando processos falsos como referência para a estratégia de defesa
Redação Exame
Publicado em 30 de maio de 2023 às 11h16.
Última atualização em 30 de maio de 2023 às 11h33.
Um juiz nos Estados Unidos se deparou com o que ele chamou de "uma circunstância sem precedentes": o ChatGPT não apenas foi usado para fornecer informações usadas pela defesa de um denunciante, comoinventou casos que não existiram. Agora, o advogado responsável pela estratégia pode enfrentar um processo e até possíveis punições.
O caso ocorreu no estado de Nova York e envolvia um processo em que um homem estava acusando uma companhia aérea de ter causado "danos pessoais" contra ele. Para corroborar a posição do cliente, um escritório de advocacia reuniu casos anteriores semelhantes que tiveram vereditos favoráveis às vítimas. Entretanto,nenhum dos casos realmente existiu.
- Como o fundador da VidMob vê o impacto da inteligência artificial na criatividade
- Fim do Google? Bill Gates acredita que inteligência artificial pode mudar tudo
- Criador do ChatGPT diz que quer continuar operando na Europa após ameaça de deixar bloco
- Meredith Whittaker, do Signal: as ferramentas estão sendo ensinadas para tomar decisões importantes
- Esta startup suiça quer usar IA para facilitar a vida de quem tem movimentos reduzidos
- Dona do Facebook usa a Bíblia para treinar inteligência artificial
O juiz responsável pelo processo afirmou que "seis dos casos apresentados parecem ser decisões judiciais falsas com falas falsas e citações internas falsas". Ele foi alertado sobre o assunto depois do advogado da companhia aérea processada não ter encontrado os casos citados. Após confirmar que as informações eram falsas, o juiz confrontou os advogados responsáveis, liderados por Peter LoDuca.
Ao ser questionado sobre o assunto, LoDuca explicou que o material usado pela defesa havia sido produzido por um colega de escritório, Steven A. Schwartz. De acordo com a BBC, Schwartz atua como advogado há mais de 30 anos e admitiu ter usado o ChatGPT como ferramenta de pesquisa para encontrar casos semelhantes.
Em um comunicado sobre o assunto, Schwartz disse que LoDuca não participou da pesquisa para produzir os argumentos e que "sentia muito" por ter se baseado apenas na inteligência artificial . Ele ressaltou que nunca tinha usado a ferramenta com esse objetivo antes e que "não tinha ideia que seu conteúdo poderia ser falso".
Ele também prometeu nunca mais usar o ChatGPT como "base" para sua pesquisa jurídica no futuro "sem antes verificar a autenticidade" das informações fornecidas pela ferramenta. Schwartz precisou divulgar o histórico de conversa com a ferramenta, que mostra que ele chegou a questionar se um caso apresentado pelo bot era verdadeiro e qual era a fonte suada. A inteligência artificial disse que sim, destacando que ele poderia ser encontrado em uma base de dados.
Schwartz acabou acreditando na resposta da ferramenta e não buscou a informação na base citada. Agora, tanto ele quanto LoDuca terão que comparecer a uma audiência no dia 8 de junho para se defenderem de possíveis punições disciplinares pela ação.
O ChatGPT mente?
O caso é mais um exemplo das chamadas "alucinações" de inteligências artificias. À EXAME , especialistas explicaram que é impreciso dizer que o ChatGPT "mente", já que ele não possui essa intenção. As alucinações se referem à criação de conteúdo que não estava previsto na base de dados usada para treinar uma IA, e por isso esse material pode conter imprecisões e conteúdo falso.
Relatos de outras alucinações na ferramenta despertaram críticas contra o bot, mas também mostram a importância de ter cuidado ao usá-lo como uma fonte de pesquisa e sempre verificar as informações fornecidas. Diogo Cortiz, professor da PUC-SP, destacou à EXAME que é importante lembrar da função principal da ferramenta: fornecer textos convincentes, e não necessariamente verdadeiros.
"Se pensar no erro, ele ocorre quando a máquina se comporta de um jeito que não foi programada pra fazer, uma exceção. Mas, um modelo de linguagem como o ChatGPT é construído para dar uma resposta, produzir um texto de saída. Se ele produz algo que seja coerente, tralhando com a probabilidade de relação com as palavras, ele não está errando, mas pode construir algo que não condiz com a realidade", afirma.
Gustavo Mee, especialista em inteligência artificial, avalia que "com os avanços do ChatGPT, erros como o uso de casos fictícios por advogados podem ser reduzidos. Recentemente, foram introduzidos diversos plugins e uma nova funcionalidade chamada 'browse with Bing', que permite ao ChatGPT acessar a internet, buscar informações atualizadas e verificar fatos em tempo real. Essa nova capacidade tem o potencial de aprimorar significativamente a precisão das citações feitas pelo modelo, uma vez que ele pode verificar informações diretamente de fontes confiáveis na web".
Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência.O que falta para você investir em crypto com a Mynt?
Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube | Telegram | Tik Tok