Queixas de 'assédio' de chatbot aumentam debate sobre regulação da IA
O bot Replika foi treinado com base em uma versão do modelo conversacional GPT-3 da empresa OpenAI, criadora do chatGPT
AFP
Publicado em 12 de fevereiro de 2023 às 15h24.
Os usuários do "chatbot" americano Replika buscavam companhia, alguns, um vínculo romântico, ou mesmo para conversas mais picantes. No ano passado, porém, surgiram muitas queixas de pessoas que receberam imagens explícitas demais, ou que se sentiram assediadas sexualmente.
Na última sexta-feira (10), a Agência Italiana de Proteção de Dados manifestou sua preocupação com o impacto nas pessoas mais frágeis e proibiu a Replika de usar os dados pessoais dos italianos, afirmando que a prática vai contra o Regulamento Geral de Proteção de Dados (RGPD).
Procurada pela AFP, a Replika não se manifestou.
Este caso mostra que o regulamento europeu — uma dor de cabeça para os gigantes da tecnologia já multados em bilhões de dólares por infringi-lo — pode se tornar um inimigo da Inteligência Artificial geradora de conteúdo.
O bot Replika foi treinado com base em uma versão do modelo conversacional GPT-3 da empresa OpenAI, criadora do chatGPT. Este sistema de Inteligência Artificial (IA) usa informações da Internet para gerar respostas coerentes às perguntas dos usuários.
Esta tecnologia promete revolucionar as buscas na Internet e em outros domínios, onde possa ser utilizada. Especialistas alertam, porém, que ela também apresenta riscos que tornam necessária sua regulamentação, de difícil implementação.
"Alta tensão"
Hoje, a União Europeia é uma das instituições, onde se debate como regular esta nova ferramenta tecnológica. O projeto de norma "AI Act" pode ser concluído até o final de 2023, ou início de 2024.
"Estamos descobrindo os problemas que a IA pode representar. Vimos que o chatGPT pode ser usado para criar mensagens de phishing (fraude on-line) muito convincentes, ou para processar um banco de dados para rastrear a identidade de uma pessoa concreta", explicou à AFP Bertrand Pailhès, que dirige uma nova divisão de IA da autoridade reguladora francesa CNIL.
Os advogados destacam a dificuldade existente para compreender e regular a "caixa-preta", em que se baseia o raciocínio da IA.
“Vamos ver uma forte tensão entre o RGPD e os modelos de IA que geram conteúdo”, disse à AFP o advogado alemão Dennis Hillemann, especialista do setor.
“Nem o projeto de regulamentação AI Act nem os atuais regulamentos RGPD podem resolver os problemas que esses modelos de IA vão trazer”, disse ele, acrescentando que será necessário repensar a regulação "em termos do que os modelos geradores de IA podem realmente fazer".
Mudança profunda
O mais recente modelo de OpenAI, GPT-4, será lançado em breve com um modo de funcionar que pode se aproximar ainda mais da capacidade de um ser humano. Ainda assim, esse tipo de IA comete muitos erros ao analisar os fatos, às vezes mostrando parcialidade, ou lançando declarações difamatórias. Por isso, muitos afirmam que deve ser regulamentada.
Jacob Mchangama, especialista em liberdade de expressão, diverge dessa abordagem.
“Mesmo que os chatbots não tenham direito à liberdade de expressão, devemos permanecer vigilantes contra a possibilidade de os governos suprimirem a Inteligência Artificial completamente”, observou.
Para Dennis Hillemann, a transparência é vital.
“Se não regularmos isso, vamos entrar em um mundo onde não é mais possível diferenciar entre o que foi feito por pessoas, ou por IA”, explicou.
"E isso nos mudaria profundamente como sociedade", completou.