Exame Logo

Meta corrigirá ferramenta discriminatória para anúncios de moradia

Ação diz que a Meta usa no Facebook algoritmos para escolher os destinatários dos anúncios de moradia com base em critérios de raça, cor, religião, sexo, deficiência, situação familiar e origem

Meta (M1TA34) (AFP/Getty Images)
A

AFP

Publicado em 21 de junho de 2022 às 18h48.

Última atualização em 21 de junho de 2022 às 18h52.

A Meta, empresa que controla o Facebook , se comprometeu a corrigir suas práticas publicitárias discriminatórias em termos de habitação, que violam a legislação americana, evitando assim uma ação judicial, anunciaram nesta terça-feira (21) fontes judiciais.

De acordo com a ação do Departamento de Habitação e Desenvolvimento Urbano dos Estados Unidos, a Meta usa no Facebook algoritmos para escolher os destinatários dos anúncios de moradia com base em critérios de raça, cor, religião, sexo, deficiência, situação familiar e origem.

Veja também

O acordo obriga "pela primeira vez a Meta a mudar seu sistema de veiculação de anúncios para lidar com a discriminação algorítmica", disse o promotor do Tribunal Sul de Manhattan, Damian Williams.

Até 31 de dezembro, a empresa de Mark Zuckerberg deverá parar de usar uma ferramenta de publicidade conhecida como "Special Ad Audiences" para anúncios de habitação, que, segundo a denúncia, se baseia em um algoritmo discriminatório, que acaba excluindo usuários com características protegidas pela Lei de Habitação Justa.

A companhia também se comprometeu a, nesse prazo, desenvolver um novo sistema para abordar, entre outras, as disparidades raciais em seu sistema personalizado de publicidade para moradia.

Se a Meta não cumprir o acordo, o tribunal optará pela via penal. Por enquanto, a empresa terá que pagar uma multa de 115.054 dólares, o máximo contemplado pela Lei de Habitação Justa dos EUA.

Esta será a primeira vez que um tribunal irá monitorar a Meta por seu sistema de anúncios personalizados.

O processo do governo busca alterar o algoritmo utilizado pelo Facebook para encontrar usuários que compartilham semelhanças com grupos de indivíduos selecionados por um anunciante usando várias opções fornecidas pela rede social, que decide que usuários são elegíveis ou inelegíveis para receber sua publicidade.

"Quando uma empresa desenvolve e implementa tecnologia que priva os usuários de oportunidades de moradia baseando-se total ou parcialmente em características protegidas, ela viola a Lei de Habitação Justa", conclui o promotor.

VEJA TAMBÉM:

Google terá novo escritório e centro de engenharia no Brasil em 2023


Meta lança loja para avatares e roupas de grife são os primeiros produtos

TikTok afirma que servidores da Oracle nos EUA não são acessados pela parte chinesa da empresa

Acompanhe tudo sobre:FacebookRacismo

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Tecnologia

Mais na Exame