Robô preconceituoso soou alerta interno na Microsoft
Com experimento, empresa tomou consciência do nível de importância da ética para a inteligência artificial
Lucas Agrela
Publicado em 9 de março de 2018 às 16h56.
Última atualização em 11 de março de 2018 às 15h20.
Florianópolis – A Microsoft fez um experimento em 2016: colocou uma inteligência artificial no Twitter para que ela aprendesse com os internautas. Em apenas um dia, ela se tornou preconceituosa, falando mal sobre judeus e mexicanos, e isso soou um alerta interno na empresa sobre a importância da ética para essa nova fronteira da tecnologia.
“Isso foi um assombro para nós. Do ponto de vista de tecnologia, o experimento funcionou. Do ponto de vista social, foi uma experiência terrível”, declarou Paula Bellizia, general manager da Microsoft Brasil, durante o evento Data Driven Business, realizado em Florianópolis.
Bellizia diz que o algoritmo aprendeu do meio e que isso é “um pouco do reflexo da sociedade na qual vivemos hoje”. “A questão da ética, do propósito e da visão do impacto do que fazer vai ser mais importante do que nunca. O poder também estará nas mãos das grandes organizações de tecnologia”, afirmou a executiva.
Atualmente, 8 mil cientistas trabalham na área de inteligência artificial da Microsoft.
A tecnologia que a empresa cria não é usada somente para análise interna de dados, em uma plataforma de Big Data, ela já poderá ser aproveitada por desenvolvedores de aplicações para Windows 10 graças à plataforma Windows ML, que será oferecida na próxima atualização do sistema operacional.