Exame Logo

Robô preconceituoso soou alerta interno na Microsoft

Com experimento, empresa tomou consciência do nível de importância da ética para a inteligência artificial

(Twitter/Microsoft/Reprodução)

Lucas Agrela

Publicado em 9 de março de 2018 às 16h56.

Última atualização em 11 de março de 2018 às 15h20.

Florianópolis – A Microsoft fez um experimento em 2016: colocou uma inteligência artificial no Twitter para que ela aprendesse com os internautas. Em apenas um dia, ela se tornou preconceituosa, falando mal sobre judeus e mexicanos, e isso soou um alerta interno na empresa sobre a importância da ética para essa nova fronteira da tecnologia.

“Isso foi um assombro para nós. Do ponto de vista de tecnologia, o experimento funcionou. Do ponto de vista social, foi uma experiência terrível”, declarou Paula Bellizia, general manager da Microsoft Brasil, durante o evento Data Driven Business, realizado em Florianópolis.

Veja também

Bellizia diz que o algoritmo aprendeu do meio e que isso é “um pouco do reflexo da sociedade na qual vivemos hoje”. “A questão da ética, do propósito e da visão do impacto do que fazer vai ser mais importante do que nunca. O poder também estará nas mãos das grandes organizações de tecnologia”, afirmou a executiva.

Atualmente, 8 mil cientistas trabalham na área de inteligência artificial da Microsoft.

A tecnologia que a empresa cria não é usada somente para análise interna de dados, em uma plataforma de Big Data, ela já poderá ser aproveitada por desenvolvedores de aplicações para Windows 10 graças à plataforma Windows ML, que será oferecida na próxima atualização do sistema operacional.

Acompanhe tudo sobre:Inteligência artificialMicrosoftPatrocinadoPreconceitos

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Tecnologia

Mais na Exame