Brad Smith: vice-presidente e presidente da Microsoft (Betty Laura Zapata/Bloomberg/Getty Images)
Repórter
Publicado em 31 de julho de 2024 às 15h22.
Última atualização em 31 de julho de 2024 às 15h41.
A Microsoft solicitou ao Congresso dos EUA a criação de uma legislação específica para regular o uso de deepfakes, imagens e vídeos falsos gerados por inteligência artificial (IA). Brad Smith, vice-presidente da empresa, destacou a urgência dessa ação para prevenir fraudes, abusos e manipulações.
“Embora o setor de tecnologia e organizações sem fins lucrativos tenham tomado medidas recentes para enfrentar esse problema, nossas leis precisam evoluir para combater a fraude por deepfake,” afirmou Smith em um post no blog da empresa. “Uma das medidas mais importantes que os EUA podem tomar é aprovar um estatuto abrangente de fraude por deepfake para evitar que cibercriminosos usem essa tecnologia para roubar dos americanos comuns.”
Smith pediu que os legisladores criem um “estatuto de fraude por deepfake” que forneça uma estrutura legal para que as autoridades possam processar golpes e fraudes gerados por IA. Ele também pediu atualizações nas leis federais e estaduais sobre exploração e abuso sexual infantil e imagens íntimas não consensuais para incluir conteúdos gerados por IA.
Recentemente, o Senado aprovou um projeto de lei que combate deepfakes sexualmente explícitos, permitindo que vítimas de imagens explícitas não consensuais geradas por IA processem os criadores por danos. Esta legislação foi aprovada após incidentes envolvendo estudantes fabricando imagens explícitas de colegas e trolls compartilhando imagens falsas de celebridades, como Taylor Swift, na plataforma X (anteriormente conhecida como Twitter).
A Microsoft também implementou mais controles de segurança para seus próprios produtos de IA depois que uma falha permitiu a criação de imagens explícitas de celebridades. “O setor privado tem a responsabilidade de inovar e implementar salvaguardas que previnam o uso indevido da IA,” ressaltou Smith.