Logotipo do Twitter: montagens com pessoas negras e brancas revelaram uma problema no algoritmo do Twitter (Kacper Pempel/Reuters)
Filipe Serrano
Publicado em 20 de setembro de 2020 às 11h45.
Última atualização em 21 de setembro de 2020 às 13h13.
Um experimento no Twitter com fotos de pessoas brancas e negras tem chamado a atenção de usuários da rede social neste fim de semana.
No sábado (19), um usuário publicou duas montagens diferentes, ambas com fotografias do senador americano Mitch McConnell e do ex-presidente Barack Obama.
Na primeira montagem, a foto do senador branco está em cima, e a de Obama, embaixo. Na segunda montagem, a posição das imagens foi invertida.
Para surpresa dos usuários, no entanto, o algoritmo do Twitter priorizou nas duas ocasiões a foto do senador Mitch McConnell (que tem a pele branca) e exibiu a imagem dele como destaque na visualização padrão do tuíte.
Trying a horrible experiment...
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
— Tony "Abolish ICE" Arcieri 🦀🌹 (@bascule) September 19, 2020
Em outras montagens feitas pelo usuário, o sistema também continuou priorizando a foto do senador branco, o que gerou indignação na rede social e acusações de racismo do algoritmo do Twitter.
Após a publicação, um usuário brasileiro fez experimentos parecidos e o resultado foi o mesmo. A fotografia de pessoas brancas continuou sendo priorizada.
https://twitter.com/itsfabiojunior/status/1307488711584690176
Na tarde deste domingo, o chefe de design da empresa, Dantley Davis, respondeu as mensagens na rede social admitindo a culpa pela interpretação do algoritmo do Twitter.
“É 100% nossa culpa. Ninguém deve dizer o contrário. Agora o próximo passo é corrigir”, disse ele.
Ele também afirmou que o sistema de reconhecimento facial não é utilizado nesses casos e que a empresa está trabalhando para corrigir o erro.
Facial recognition isn’t used here. Net result feels the same though. Working on fixing it.
— Dantley Davis (@dantley) September 19, 2020
Nesta segunda-feira, 21, o Twitter Brasil se posicionou sobre o assunto afirmando que "fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero".
Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, e abriremos o código para que outros possam revisá-lo. https://t.co/yZphB9pK5p
— Brasil (@XBR) September 21, 2020