Inteligência Artificial

Microsoft pede regulação urgente para deepfakes gerados por IA

O vice-presidente e presidente da Microsoft, Brad Smith, defende a necessidade de proteger eleições, idosos e crianças

Brad Smith: vice-presidente e presidente da Microsoft (Betty Laura Zapata/Bloomberg/Getty Images)

Brad Smith: vice-presidente e presidente da Microsoft (Betty Laura Zapata/Bloomberg/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 31 de julho de 2024 às 15h22.

Última atualização em 31 de julho de 2024 às 15h41.

A Microsoft solicitou ao Congresso dos EUA a criação de uma legislação específica para regular o uso de deepfakes, imagens e vídeos falsos gerados por inteligência artificial (IA). Brad Smith, vice-presidente da empresa, destacou a urgência dessa ação para prevenir fraudes, abusos e manipulações.

“Embora o setor de tecnologia e organizações sem fins lucrativos tenham tomado medidas recentes para enfrentar esse problema, nossas leis precisam evoluir para combater a fraude por deepfake,” afirmou Smith em um post no blog da empresa. “Uma das medidas mais importantes que os EUA podem tomar é aprovar um estatuto abrangente de fraude por deepfake para evitar que cibercriminosos usem essa tecnologia para roubar dos americanos comuns.”

Smith pediu que os legisladores criem um “estatuto de fraude por deepfake” que forneça uma estrutura legal para que as autoridades possam processar golpes e fraudes gerados por IA. Ele também pediu atualizações nas leis federais e estaduais sobre exploração e abuso sexual infantil e imagens íntimas não consensuais para incluir conteúdos gerados por IA.

Recentemente, o Senado aprovou um projeto de lei que combate deepfakes sexualmente explícitos, permitindo que vítimas de imagens explícitas não consensuais geradas por IA processem os criadores por danos. Esta legislação foi aprovada após incidentes envolvendo estudantes fabricando imagens explícitas de colegas e trolls compartilhando imagens falsas de celebridades, como Taylor Swift, na plataforma X (anteriormente conhecida como Twitter).

A Microsoft também implementou mais controles de segurança para seus próprios produtos de IA depois que uma falha permitiu a criação de imagens explícitas de celebridades. “O setor privado tem a responsabilidade de inovar e implementar salvaguardas que previnam o uso indevido da IA,” ressaltou Smith.

Acompanhe tudo sobre:MicrosoftEstados Unidos (EUA)

Mais de Inteligência Artificial

Empresas que usam tecnologias como IA são 23% mais lucrativas, diz estudo

Nova ferramenta do Instagram permite criar chatbots personalizados

Plano brasileiro de IA prevê R$ 23 bi, supercomputador e sistema para o SUS

OpenAI lança novo modo de voz superavançado para usuários pagantes

Mais na Exame