Inteligência Artificial

Microsoft pede regulação urgente para deepfakes gerados por IA

O vice-presidente e presidente da Microsoft, Brad Smith, defende a necessidade de proteger eleições, idosos e crianças

Brad Smith: vice-presidente e presidente da Microsoft (Betty Laura Zapata/Bloomberg/Getty Images)

Brad Smith: vice-presidente e presidente da Microsoft (Betty Laura Zapata/Bloomberg/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 31 de julho de 2024 às 15h22.

Última atualização em 31 de julho de 2024 às 15h41.

A Microsoft solicitou ao Congresso dos EUA a criação de uma legislação específica para regular o uso de deepfakes, imagens e vídeos falsos gerados por inteligência artificial (IA). Brad Smith, vice-presidente da empresa, destacou a urgência dessa ação para prevenir fraudes, abusos e manipulações.

“Embora o setor de tecnologia e organizações sem fins lucrativos tenham tomado medidas recentes para enfrentar esse problema, nossas leis precisam evoluir para combater a fraude por deepfake,” afirmou Smith em um post no blog da empresa. “Uma das medidas mais importantes que os EUA podem tomar é aprovar um estatuto abrangente de fraude por deepfake para evitar que cibercriminosos usem essa tecnologia para roubar dos americanos comuns.”

Smith pediu que os legisladores criem um “estatuto de fraude por deepfake” que forneça uma estrutura legal para que as autoridades possam processar golpes e fraudes gerados por IA. Ele também pediu atualizações nas leis federais e estaduais sobre exploração e abuso sexual infantil e imagens íntimas não consensuais para incluir conteúdos gerados por IA.

Recentemente, o Senado aprovou um projeto de lei que combate deepfakes sexualmente explícitos, permitindo que vítimas de imagens explícitas não consensuais geradas por IA processem os criadores por danos. Esta legislação foi aprovada após incidentes envolvendo estudantes fabricando imagens explícitas de colegas e trolls compartilhando imagens falsas de celebridades, como Taylor Swift, na plataforma X (anteriormente conhecida como Twitter).

A Microsoft também implementou mais controles de segurança para seus próprios produtos de IA depois que uma falha permitiu a criação de imagens explícitas de celebridades. “O setor privado tem a responsabilidade de inovar e implementar salvaguardas que previnam o uso indevido da IA,” ressaltou Smith.

Acompanhe tudo sobre:MicrosoftEstados Unidos (EUA)

Mais de Inteligência Artificial

A confissão de Sam Altman: CEO teve investimento na OpenAI via Sequoia Capital

Itália multa OpenAI em €15 milhões por uso inadequado de dados pessoais no ChatGPT

OpenAI permite a partir de hoje nos EUA fazer chamadas gratuitas para ChatGPT

Executivos analisam desafios e oportunidades da IA nos negócios