X bloqueia buscas por "Taylor Swift" após imagens explícitas geradas por IA
Ação de segurança é tomada após a viralização de fotos não consentidas da cantora; Swift considera ação legal
Redação Exame
Publicado em 29 de janeiro de 2024 às 09h28.
Última atualização em 30 de janeiro de 2024 às 07h24.
Após a circulação de imagens explícitas geradas por inteligência artificial (IA) envolvendo a popstar Taylor Swift, a plataforma X implementou um bloqueio nas buscas pelo nome da artista. Usuários que tentam realizar a pesquisa se deparam com uma mensagem de erro sugerindo a recarga da página.
Joe Benarroch, líder de operações comerciais da X, comunicou à BBC News que a medida foi adotada "com uma abundância de precaução, priorizando a segurança neste assunto". O próprio X reconheceu a disseminação dos deepnudes (descrição para imagens, vídeos ou áudios falsos gerados por IA, usado para falar de fotos falsas de pessoas nuas ou em cenários sexuais)em uma publicação na sexta-feira, 26, informando que trabalha para removê-las e está "monitorando de perto" a situação.
A empresa enfatizou, através da conta de segurança da X, que "a postagem de Nudez Não Consentida (NCN) é estritamente proibida na plataforma, e há uma política de tolerância zero para esse tipo de conteúdo". Taylor Swift, reportou o Daily Mail, está enfurecida com as imagens e considerando ações legais. As fotos receberam condenação internacional, com figuras públicas criticando tanto as imagens quanto a sua propagação.
O CEO da Microsoft, Satya Nadella, classificou as imagens como "alarmantes e terríveis", solicitando mais "barreiras de segurança" para a tecnologia. A Casa Branca também expressou alarme com as imagens.
Karine Jean-Pierre, secretária de imprensa da Casa Branca, destacou: "Sabemos que a aplicação frouxa [das regras] afeta desproporcionalmente as mulheres e, infelizmente, também as meninas, que são os alvos predominantes".
O que são deepnudes?
Uma variação do termo " deepfake ", descrição para imagens, vídeos ou áudios falsos gerados por IA, os "deepnudes" são fotos falsas de pessoas nuas ou em cenários sexuais, geradas por inteligência artificial.
No Brasil, a criação ou manipulação de imagens com inteligência artificial para fins pornográficos é considerada crime. A legislação prevê pena de detenção de seis meses a um ano e multa para quem produz tais conteúdos sem o consentimento dos participantes, e reclusão de um a cinco anos para quem os compartilha.
"Deepnudes" têm se tornado um desafio crescente, principalmente para mulheres. Casos semelhantes envolvendo a atriz Ísis Valverde e até estudantes em escolas do Rio de Janeiro e Recife destacam a urgência de medidas rigorosas para combater esse tipo de crime virtual.