Faculdade Exame

O que é preconceito algorítmico?

O preconceito algoritmico pode causar impactos significativos na sociedade. Saiba mais.

O preconceito algoritmico pode causar impactos significativos na sociedade.  (SDI Productions/iStockphoto)

O preconceito algoritmico pode causar impactos significativos na sociedade. (SDI Productions/iStockphoto)

Faculdade EXAME
Faculdade EXAME

Faculdade EXAME

Publicado em 29 de agosto de 2024 às 17h10.

Antes de abordarmos o preconceito algorítmico, é essencial esclarecer o que são algoritmos. Podemos pensar neles como uma espécie de "receita" que os computadores seguem para entregar os resultados que os usuários procuram.

Esses resultados, por sua vez, são baseados em um banco de dados alimentado por conteúdos já existentes na internet. Quanto mais informações semelhantes o algoritmo receber, mais informações semelhantes ele reproduzirá.

É aqui que entra o preconceito algorítmico: a produção e reprodução de conteúdo que pode refletir preconceitos e discriminações presentes na sociedade. É como ensinar um robô com informações incorretas.

No vídeo abaixo, o diretor de inteligência artificial da EXAME e coordenador do MBA em Inteligência Artificial para Negócios, Miguel Lannes Fernandes, explica de uma maneira bem didática como tudo isso funciona. Confira:

yt thumbnail

Leia mais: Inteligência artificial: o que é e como ela pode alavancar sua carreira

Qual o impacto do preconceito algorítmico na sociedade?

O preconceito algorítmico pode ter um impacto significativo em nossa vida cotidiana e, como qualquer forma de discriminação, pode resultar em injustiças para parte da população.

Em 2015, um usuário do Google Fotos denunciou a plataforma por ter rotulado a foto de um casal negro com a legenda "gorilas". Na época, a gigante da tecnologia afirmou que tomaria as medidas necessárias para evitar a repetição de erros como esse. 

Nos EUA, foi criado um sistema para descobrir a probabilidade de pessoas cometerem crimes a partir do cruzamento de informações biométricas do rosto e de fichas criminais. Como a tecnologia se alimentou de dados de criminalidade racialmente carregados, seus resultados se tornaram enviesados.

Em 2020, um homem negro foi preso em Detroit (EUA) acusado de um roubo. O software de reconhecimento facial reconheceu a pessoa errada, e tanto o suspeito quanto a pessoa presa por engano eram negros. 

Nas redes sociais, os usuários também estão atentos. Recentemente, uma pesquisa demonstrou que artistas mulheres são pouco sugeridas pelo Spotify, criando um enviesamento e impactando as preferências dos usuários. 

O Twitter também teve seu algoritmo acusado de não reconhecer o rosto de pessoas não-brancas nas imagens postadas pelos usuários. Em maio de 2021, foi divulgado pela própria plataforma um relatório com dados que confirmam as denúncias dos usuários:

  • O algoritmo de recorte de imagens do Twitter tende a favorecer pessoas brancas, em média, em 4%.
  • Quando se trata de mulheres, a diferença é ainda maior, sendo 7% mais favorável às mulheres brancas em relação às negras.

A rede social se comprometeu a resolver esse problema, permitindo que os usuários visualizem previamente o resultado final de uma imagem antes de publicá-la.

Leia mais: Ferramentas de inteligência artificial: 8 opções úteis para facilitar a sua rotina de trabalho

Regulamentação e combate

Em 2020, o Comitê para Eliminação da Discriminação Racial da Organização das Nações Unidas fez um apelo para a regulamentação dos algoritmos de reconhecimento facial, devido ao potencial de perpetuar ou ampliar casos de preconceito contra grupos minoritários.

Combater o preconceito algorítmico é um desafio significativo no mundo da tecnologia. À medida que incorporamos cada vez mais algoritmos em nossas vidas, é fundamental garantir que sejam justos, éticos e não prejudiciais.

Existem formas de lidar com o preconceito em algoritmos, como buscar maior diversidade nas bases de dados, tornar os algoritmos mais justos, selecionar dados imparciais e conduzir testes rigorosos.

Além disso, é preciso responsabilizar as pessoas e as empresas que desenvolvem esses algoritmos, cobrando ética e justiça em todas as etapas do processo.

Acompanhe tudo sobre:Faculdade EXAME

Mais de Faculdade Exame

No pódio da inovação: como a Fórmula 1 está conquistando novas audiências

ESG, IA e Inovação: como os três pilares da modernidade estão transformando as finanças corporativas

Por que resistimos a mudanças?

Regulação da IA no Brasil está a caminho, mas só em 2025