Reclamações ao Google sobre deepfake explodiram desde 2017, diz revista
82% das reclamações sobre deepfakes resultaram na remoção de URLs do Google
Redação Exame
Publicado em 12 de março de 2024 às 09h21.
O número de vídeos pornográficos deepfake não consensuais on-line explodiu desde 2017. À medida que esse material tóxico se espalhou pelas redes, ilhares de mulheres - incluindo streamers do Twitch, jogadores e outros criadores de conteúdo - reclamaram ao Google, que hospeda os vídeos, e tentaram fazer com que o gigante da tecnologia os removesse de seus resultados de pesquisa.
Uma análise da revista WIRED sobre reclamações de direitos autorais relacionadas a sites que hospedam vídeos pornográficos deepfake revela que milhares de solicitações de remoção foram feitas, e a frequência das reclamações está aumentando.Mais de 13.000 reclamações de direitos autorais - abrangendo quase 30.000 URLs - foram feitas ao Googlecom relação ao conteúdo de uma dúzia dos sites deepfake mais populares.
As reclamações foram feitas de acordo com a Lei de Direitos Autorais de Mídia Digital (DMCA) e resultaram na remoção de milhares de vídeos não consensuais da Web. Dois dos sites mais acessados foram alvo de mais de 6.000 e 4.000 reclamações cada, segundo dados publicados pelo Google. Em todas as plataformas de deepfake analisadas, 82% das reclamações resultaram na remoção de URLs do Google, segundo os dados de transparência de direitos autorais da empresa.
Somente para o maior site de vídeos deepfake, oGoogle recebeu solicitações de remoção de 12.600 URLs, 88% dos quais foram retirados do ar.
Desde que surgiram os primeiros vídeos pornográficos deepfake não consensuais, em 2017, as empresas de tecnologia e os legisladores demoraram para agir. Ao mesmo tempo, criar um vídeo deepfake ficou mais fácil com os sistemas cada vez mais inteligentes.Atualmente, existem alguns tipos de conteúdo deepfake explícito: vídeos em que o rosto de uma pessoa é colocado em pornografia consensual existente, aplicativos que podem "despir" uma pessoa ou trocar seu rosto por uma imagem de nudez e alguma IA generativa que permite a criação de imagens deepfake totalmente novas, como aconteceu com Taylor Swift.
Cada método é utilizado como arma - quase sempre contra as mulheres - para degradar, assediar ou causar vergonha, entre outros danos.
Mais de 8 bilhões de solicitações de remoção, abrangendo tudo, de jogos a música, já foram feitas ao Google.