Tecnologia

Por que o algoritmo do Facebook pode ter ajudado Trump

Segundo democratas e críticos da mídia, a rede social pouco fez para frear uma onda de notícias falsas que teriam virado a balança em favor do republicano

Mark Zuckerberg: “as notícias falsas não passam de 1% do total da rede” (Win McNamee/Getty Images)

Mark Zuckerberg: “as notícias falsas não passam de 1% do total da rede” (Win McNamee/Getty Images)

RK

Rafael Kato

Publicado em 21 de novembro de 2016 às 17h58.

Reportagem publicada originalmente em EXAME Hoje, app disponível na App Store e no Google Play.

Era para ser um mês de glória. No dia 10 de novembro, Mark Zuckerberg foi eleito pela revista Fortune a pessoa de negócios do ano – uma espécie de reconhecimento curiosamente rara para o líder de uma empresa que em 12 anos atingiu o valor de mercado de 350 bilhões de dólares, tem 16.000 funcionários e quase 1,8 bilhão de usuários no mundo todo.

Em vez da festa, porém, o que Zuckerberg recebeu foram críticas pesadas – não por sua eleição, mas pela do próximo presidente americano, Donald Trump, ocorrida dois dias antes. O Facebook foi apontado, por democratas frustrados e por críticos da mídia, como responsável pela vitória republicana. E agora sofre pressões para assumir-se como uma empresa de mídia e controlar a qualidade das notícias que circulam na rede.

Há certamente muitas razões para a derrota da candidata democrata, Hillary Clinton. No sábado passado, dia 12, ela culpou o diretor do FBI, James Comey, que em outubro mandou uma carta ao Congresso afirmando que a polícia federal americana iria investigar uma nova coleção de emails que Hillary enviou quando era secretária de Estado, possivelmente comprometendo a segurança nacional. Dois dias antes da votação, Comey mandou outra carta ao Congresso, dizendo que o FBI não iria processar Hillary – mas a essa altura, segundo ela, sua vantagem sobre Trump havia desvanecido.

O atual presidente, Barack Obama, sugeriu outro responsável pela derrota: a falta de energia de Hillary. Outro motivo para a vitória de Trump é que seus seguidores se mostraram mais entusiasmados para ir às urnas do que os eleitores de Hillary, talvez até porque as pesquisas davam a dianteira a ela. Nenhuma dessas razões, no entanto, chamou tanta atenção quanto culpar o Facebook. O argumento é que a rede social não fez nada para frear uma onda de notícias falsas que, nos últimos dias de campanha, teriam virado a balança em favor do candidato republicano.

O papa, o FBI e a campanha

Notícias falsas foram de fato uma tônica da campanha. Uma delas afirmava que um "agente do FBI suspeito no caso do vazamento de emails de Hillary foi encontrado morto em um aparente caso de assassinato seguido de suicídio”. A notícia era atribuída ao jornal Denver Guardian. O fato de o jornal sequer existir não impediu que o artigo fosse compartilhado 568.000 vezes, com mais de 15,5 milhões de visualizações.

Outra falsa notícia – de que o papa Francisco deu seu apoio a Trump – foi compartilhada quase 1 milhão de vezes, “provavelmente vista por dezenas de milhões de pessoas”, afirmou Zeynep Tufekci, professor da Universidade da Carolina do Norte que estuda o impacto social da tecnologia, em artigo para o The New York Times. Segundo ele, a notícia foi corrigida, mas a errata passou despercebida. “É claro que o Facebook teve uma influência significativa no resultado da eleição”, disse Tufekci.

Em entrevista no dia 10, Zuckerberg se defendeu das acusações. Disse que era “loucura" achar que as notícias falsas tenham ajudado a definir a eleição. Nos dias seguintes, como o assunto não esfriava, ele arrolou mais argumentos: primeiro, que “as notícias falsas não passam de 1% do total da rede”; em segundo lugar, que os simpatizantes de Hillary também recorreram ao mesmo método; em terceiro, que as pessoas não se deixam enganar tão facilmente.

Os argumentos não convenceram os críticos. A experiência da maioria das pessoas é de que as notícias falsas representam bem mais do que 1% do total. Além disso, para quantificar a taxa de notícias falsas seria necessário que o Facebook soubesse apontá-las.

Quanto a ter havido também calúnias do lado democrata, é verdade. Mas elas foram em menor número. Um estudo feito pelo site de notícias BuzzFeed News concluiu que os três maiores produtores de notícias de tendência esquerdista publicaram informações falsas em cerca de 20% dos posts, enquanto os três maiores da direita publicaram falsidades 38% das vezes.

Sobre as pessoas não se deixarem enganar, é difícil atestar. Mas vários usuários consideram o Facebook uma fonte de notícias. Segundo pesquisa do Centro de Pesquisas Pew, 44% dos americanos consomem pelo menos parte das notícias pela rede social. E, dada a inclinação do site a mostrar coisas parecidas com aquelas que as pessoas demonstraram gostar, a tendência é a formação de bolhas de percepção, que alimentam o radicalismo e limitam nossa capacidade de entender as diferenças.

Em um post no Facebook, no dia 13, Zuckerberg reconheceu que a empresa tinha que melhorar: “Nossa meta é mostrar às pessoas conteúdos que elas considerem valioso, e as pessoas querem notícias acuradas”, escreveu. “Nós já demos condições à nossa comunidade de denunciar trotes e falsas notícias, e podemos fazer mais.”

Ele rejeitou, porém, a ideia de fiscalizar as postagens. “Esta é uma área em que eu acredito que devemos proceder com muito cuidado. Identificar a “verdade" é complicado. Enquanto alguns trotes podem ser completamente desmascarados, uma quantidade maior de conteúdo, incluindo de fontes tradicionais, com frequência transmite a ideia geral corretamente mas erra em alguns detalhes. Um ainda maior volume de histórias expressa uma opinião da qual muita gente discorda e pode denunciar como incorreta mesmo quando seja factual.”

A invasão dos macedônios

A resistência de Zuckerberg é compreensível. O trabalho de editar notícias requer uma responsabilidade brutal. É em parte por causa disso que o Facebook faz questão de se definir como uma empresa de tecnologia que apenas publica notícias, produzidas por outros, e não uma empresa de mídia.

Muito mais tranquilo é definir-se como uma plataforma: um ambiente em que prestadores de serviços diversos se encontram com consumidores também diversos.

Não é apenas uma questão semântica. No caso do Uber, por exemplo, definir-se como plataforma implica que a empresa apenas trata de unir pessoas que querem transportar e pessoas que querem ser transportadas – e não faz sentido cobrar-lhe obrigações trabalhistas e fiscais como a uma companhia de táxis.

No caso do Facebook, que se transformou na maior fonte de notícias do mundo, definir-se como plataforma permite eximir-se da responsabilidade de curadoria tanto de veracidade como de qualidade das notícias.

O problema não é restrito ao Facebook. O Google e o Twitter também permitem a difusão de notícias falsas. Mas no Twitter, por exemplo, as pessoas primordialmente escolhem os produtores que querem ler. Pelo menos em tese sabem onde estão se metendo. No Facebook, um algoritmo pouco transparente define as notícias prioritárias na página de cada usuário.

O poder desse algoritmo aumentou nos últimos meses. Até maio, o Facebook tinha um time de 15 a 18 jornalistas independentes que era encarregado de editar a parte de trending news (as notícias mais interessantes) do site. Então uma reportagem do site Gizmodo acusou um viés de esquerda na escolha dos destaques. A empresa acabou demitindo o grupo e entregando a tarefa a um programa de computador.

Além disso, em junho a empresa mexeu no algoritmo, rebaixando o status de notícias originárias dos meios de comunicação e privilegiando os posts de amigos e parentes. A explicação é que as pessoas se interessam mais pelo seu círculo próximo – mas o efeito colateral pode ter sido uma exposição maior a notícias que não passaram pelo crivo jornalístico de preocupação com a veracidade e a acurácia.

Pode-se imaginar que um algoritmo seja mais neutro do que um grupo de seres humanos, com suas preferências e idiossincrasias. Mas, como escreveu Will Oremus, da revista Slate, a inteligência por trás do software é fundamentalmente humana. “Humanos decidem que dados serão considerados, o que fazer com eles e que resultado querem. Quando os algoritmos erram, a culpa é dos humanos.”

E o algoritmo do Facebook privilegia o engajamento. Seu objetivo principal é obter “curtidas” e compartilhamentos de posts. Isso cria o fabuloso mercado de atenção que o Facebook vende aos anunciantes.

O problema é que a atenção não tem moral. E na eleição americana (assim como no cenário brasileiro) ficou demonstrado que o radicalismo dá audiência. Segundo uma reportagem do BuzzFeed, nem foram os extremistas de direita que produziram a falsa notícia da morte de um agente do FBI ligado às investigações sobre os emails de Hillary. Foi um grupo de jovens da Macedônia.

Sua motivação era menos política que pecuniária. As dezenas de sites com notícias falsas lhes rendiam cliques e, embora cada clique valha muito pouco no mercado de anúncios digitais, a soma de milhões deles rende uma quantia considerável.

De acordo com o BuzzFeed, os jovens macedônios chegaram a experimentar conteúdo de esquerda, em especial pró Bernie Sanders, o pré-candidato democrata que Hillary derrotou. Mas eles logo descobriram que não rendia tanto quanto o material pró-Trump.

O editor mais poderoso do mundo?

O descontentamento com a postura do Facebook teve eco dentro da própria empresa. Em outubro, funcionários reclamaram do apoio público do empresário Peter Thiel, membro do conselho da companhia, a Trump, e Zuckerberg respondeu que o Facebook “preza profundamente a diversidade”.

Dezenas de empregados, segundo outra reportagem do BuzzFeed, montaram um grupo informal para propor soluções para as notícias falsas. “Loucura não é achar que o Facebook influenciou no resultado das eleições”, disse um dos empregados. “Loucura é Zuckerberg menosprezar a hipótese, quando todos na companhia sabemos que as notícias falsas correram livres na nossa plataforma durante toda a campanha eleitoral.”

É provavelmente um exagero dizer que a vitória de Trump se deva ao Facebook. Mas é ingênuo descartar a influência da empresa no mundo moderno. O próprio Facebook se orgulha dessa influência, quando expõe no meio publicitário sua capacidade de moldar ações e decisões de compra dos usuários.

Zuckerberg já afirmou que posts na rede encorajaram mais de 2 milhões de pessoas a se registrar para votar, e estimou que uma campanha no dia da votação convenceu “um número semelhante de pessoas a ir às urnas”.

Por que todo esse poder de convencimento, em se tratando das notícias falsas, se tornaria nulo? Esse raciocínio sustenta a pressão para que o Facebook assuma que é também uma empresa de mídia e promova mudanças em seus algoritmo e suas políticas de divulgação de notícias.

Algo nessa linha já aconteceu recentemente. Durante a campanha, Zuckerberg decidiu não remover os posts de Trump, apesar de vários deles terem violado as regras da companhia contra discursos de ódio. A justificativa foi que seus posts eram “uma parte importante da conversa sobre quem será o próximo presidente dos Estados Unidos”.

Em setembro, o Facebook também voltou atrás depois de ter censurado a foto de uma menina nua fugindo de um ataque de napalm, um símbolo da guerra do Vietnã. A foto, publicada pelo Aftenposten, um jornal norueguês, tinha sido retirada da rede por infringir as regras contra nudez. Em reação ao episódio, o editor chefe do jornal, Espen Egil Hansen, desafiou Zuckerberg a reconhecer seu papel como “o mais poderoso editor de notícias do mundo”.

Na quarta-feira 16, os Dicionários Oxford anunciaram o termo "pós-verdade" como a palavra do ano de 2016. Segundo a instituição "pós-verdade" é um adjetivo que "se relaciona com ou denota circunstâncias nas quais fatos objetivos são menos influentes na formação da opinião pública do que apelos à emoção e à crença pessoal".

Apesar de existir há mais de uma década, o termo teve um aumento de 2.000% em seu uso neste ano principalmente por causa do Brexit e da eleição de Donald Trump. Mais uma conquista pra lavra de Zuckerberg.

Para ler esta reportagem antecipadamente, assine EXAME Hoje.

Acompanhe tudo sobre:AlgoritmosDonald TrumpEleições americanasFacebookmark-zuckerbergMídia

Mais de Tecnologia

Como o Google Maps ajudou a solucionar um crime

China avança em logística com o AR-500, helicóptero não tripulado

Apple promete investimento de US$ 1 bilhão para colocar fim à crise com Indonésia

Amazon é multada em quase R$ 1 mi por condições inseguras de trabalho nos EUA