YouTube: plataforma de vídeos do Google (STR/NurPhoto/Getty Images)
Repórter
Publicado em 19 de março de 2024 às 09h53.
O YouTube anunciou na segunda-feira, 18, uma nova política que obriga criadores de conteúdo a informar os espectadores sobre vídeos que utilizam inteligência artificial (IA) para criar representações realistas de pessoas, lugares ou eventos.
A medida busca evitar que os usuários sejam enganados por vídeos sinteticamente criados, tendo em vista que as novas ferramentas de IA generativa tornam cada vez mais difícil distinguir entre o real e o falso.
A plataforma, que já havia sinalizado em novembro a implementação dessa atualização como parte de uma introdução mais ampla de novas políticas de IA, destaca que a exigência não se aplica a conteúdo claramente irrealista ou animado, como animações fantásticas.
O foco está nos vídeos que utilizam a aparência de pessoas reais de maneira realista, exigindo a divulgação de alterações digitais significativas, como a substituição de rostos ou a geração sintética de vozes.
Os criadores também deverão informar quando modificarem digitalmente imagens de eventos ou locais reais, ou quando criarem cenas realistas de eventos fictícios importantes, visando sempre a transparência e a clareza para o espectador.
Segundo o YouTube, a maioria dos vídeos afetados pela política terá um rótulo na descrição expandida, mas vídeos que abordem tópicos sensíveis como saúde ou notícias receberão uma etiqueta mais proeminente diretamente no vídeo.
As novas etiquetas começarão a ser implementadas nas próximas semanas em todos os formatos da plataforma, iniciando pelo aplicativo móvel do YouTube e, posteriormente, estendendo-se para as versões de desktop e TV.
A plataforma também planeja adotar medidas de fiscalização para criadores que consistentemente optarem por não usar os rótulos, incluindo a possibilidade de adicionar etiquetas por conta própria em casos em que o conteúdo possa confundir ou induzir o espectador ao erro.