As redes sociais tornam as pessoas mais radicais?
Num mundo com discussões ditadas pelos algoritmos das redes sociais, a percepção de que caminhos para os extremos só faz crescer
Carolina Riveira
Publicado em 24 de novembro de 2017 às 15h57.
Última atualização em 28 de novembro de 2017 às 16h48.
Fake news, pós-verdade, clickbait. Esses termos entraram em nossos vocabulários nos últimos meses, e parecem ter vindo para ficar.
Da eleição de Donald Trump nos Estados Unidos a acaloradas discussões entre eleitores de PT e PSDB no Brasil, já virou lugar comum dizer que o mundo está cada vez mais polarizado, e que em nenhum lugar o debate é mais extremo que nas redes sociais , uma terra sem lei que permite a disseminação de notícias duvidosas e uma chuva de comentários radicais.
No mundo, cerca de 2,07 bilhões de pessoas usam o Facebook todos os dias, 330 milhões usam o Twitter e mais de 40.000 buscas são feitas no Google a cada segundo.
Essas ferramentas tornaram-se não somente uma forma de conexão com os amigos, mas uma grande plataforma de informação: no Brasil, 78% das pessoas usam as redes sociais para se informar, segundo um estudo da Advice Comunicação Corporativa e da BonusQuest divulgado no fim do ano passado; nos EUA, são 62%, segundo o instituto de pesquisas Pew Research Center.
Nesse cenário, é fácil imaginar por que a imprensa americana passou meses discutindo se foi o Facebook o responsável por eleger Donald Trump, que teria se beneficiado do compartilhamento de notícias falsas ou sensacionalistas sobre a rival democrata Hillary Clinton.
Além de serem um espaço para disseminação de conteúdos não muito confiáveis compartilhados a torto e a direito, as redes sociais, por meio de botões de like e algoritmos que selecionam mecanicamente o que veremos na tela, tendem a nos mostrar sobretudo pontos de vista com os quais já concordamos.
A lógica é simples: se conversamos somente com pessoas com as quais concordamos, uma visão que já possuíamos é confirmada de novo e de novo, até tornar-se inquestionável.
“Essas plataformas acabam funcionando como incubadoras da polarização que já existe fora delas”, diz o especialista em sistemas de informação Resa Mousavi, professor na Escola de Negócios na Universidade da Carolina do Norte e autor de estudos sobre a relação das mídias sociais com o debate público.
As bolhas digitais
O que aparece na página inicial de redes sociais como o Facebook e o Twitter, ou no topo da lista de resultados do Google, são conteúdos selecionados por meio de uma fórmula matemática, o chamado algoritmo.
Cada plataforma tem um algoritmo diferente, cujo objetivo básico é encontrar, no mar de posts e informação disponíveis online, o que é de fato relevante para o usuário naquele contexto.
O algoritmo não é de todo um vilão. É essa curadoria que nos permite navegar entre os mais de 4,75 bilhões de posts compartilhados diariamente no Facebook ou as 8 bilhões de páginas indexadas no Google.
Usando informações que possui sobre nós — de interação com amigos a histórico de busca e cliques —, o algoritmo tenta responder a nossas solicitações da melhor forma possível.
Mas a discussão sobre esse formato reside em quais critérios são usados nessa seleção. Se uma pessoa no Facebook curte muitas páginas pró-vegetarianismo, por exemplo, ela ensina ao algoritmo que é esse tipo de página que gosta de ver, e isso vai sempre aparecer no topo de sua linha do tempo.
Assim, o usuário cria para si mesmo, com a ajuda do algoritmo, um mundo em que a maioria das coisas estão de acordo com seu ponto de vista.
É o que os especialistas chamam de echo chamber (câmara de eco, em tradução livre). “O algoritmo tem uma missão específica: mostrar o que é mais relevante para o usuário. E ele vai cumprir essa missão, mesmo que isso signifique mostrar conteúdo duvidoso ou radical”, diz Fabro Steibel, do Instituto de Tecnologia e Sociedade do Rio (ITS Rio).
Da forma como são construídas, as redes sociais também favorecem o compartilhamento de conteúdo mais extremo, porque a tendência é que as pessoas só interajam na base do 8 ou 80: ou amam, ou odeiam. “Ninguém reage muito a algo que não lhe impactou”, diz o professor Mousavi, da Universidade da Carolina do Norte.
Ele estudou a forma como o Tea Party, movimento ultraconservador nos Estados Unidos, se organiza no Twitter, e explica que o algoritmo funciona dividindo os usuários em “cestas”, ao lado de pessoas com gostos semelhantes.
“Se as pessoas da sua ‘cesta’ ficam mais polarizadas, o algoritmo vai supor que você também vai estar, e vai te mostrando coisas mais extremas. E, em algum momento, você vai se tornando mais polarizado também”, diz.
Para o professor Cass Sunstein, da Faculdade de Direito de Harvard, a polarização é prejudicial ao debate público. “Se as pessoas não se entendem e se enxergam como inimigas, isso pode ser um problema para a democracia como um todo”, diz. Sunstein, que já trabalhou no escritório de Informação e Assuntos Regulatórios dos Estados Unidos na gestão do ex-presidente Barack Obama, acredita que os reflexos da polarização nas redes já estão “tornando o trabalho do governo mais difícil” em Washington.
Durante a campanha presidencial americana, no ano passado, um grande tema foram as polêmicas fake news, termo popularizado pelo presidente Donald Trump e usado até hoje para caracterizar notícias que lhe desagradam. Embora nem tudo que Trump rotule como fake news de fato o sejam, o compartilhamento de notícias mentirosas é um problema real, e pode ser potencializado pelas redes sociais, onde qualquer conteúdo é disseminado quase livremente.
No Brasil, cerca de 42% dos usuários já afirmam terem compartilhado notícias falsas, segundo uma pesquisa da consultoria Advice e da BonusQuest. Há ainda os chamados bots, usuários falsos criados aos milhares para disseminar informações — no Twitter, são mais de 40 milhões de perfis falsos.
No geral, o conteúdo falso costuma ser justamente mais extremista, e ao receber um alto nível de curtidas e compartilhamentos, pode ser favorecido pelo algoritmo, que não é capaz de diferenciar com precisão a qualidade da informação.
Todo o poder às máquinas
No fim, todo esse modelo tem um objetivo: fazer com que o usuário permaneça na plataforma o máximo de tempo possível. Quanto mais tempo alguém passa conectado, mais anúncios poderá ver — esse é o preço a ser pago pelos usuários das redes gratuitas. Cerca de 96% da receita do Facebook vem de anúncios na plataforma, e 87% da receita da Alphabet (a dona do Google) também é obtida dessa forma.
No Brasil, o investimento em publicidade digital cresceu 26% em 2016, totalizando 11,8 bilhões de reais, segundo o estudo Digital AdSpend, do IAB (Interactive Advertising Bureau) em parceria com o instituto de análise digital comScore.
No mundo, esse mercado deve faturar 83 bilhões de dólares neste ano. Informação, na era digital, pode ser facilmente transformada em dezenas de bilhões de dólares.
Na missão de entregar o que é mais relevante a cada um, as redes usam ferramentas de big data e inteligência artificial, e coletam a cada segundo uma infinidade de dados sobre os usuários. Há, é claro, um lado muito conveniente em ter tamanha personalização: os usuários recebem conteúdo cada vez mais específico.
“Os próprios consumidores vêm demandando um grau de personalização cada vez maior”, diz Lindsay Tjepkema, chefe global de conteúdo da Emarsys, empresa americana que trabalha com automação na área de marketing.
Mas sem entrar na discussão de o quanto é saudável que as empresas disponham de tanta informação sobre nós, o fato é que, como é uma máquina, o algoritmo não consegue acompanhar muitas discussões importantes. E os problemas vão além do debate entre esquerda e direita, podendo incluir questões de discriminação cultural, racial ou de gênero.
Uma campanha da ONG baiana Desabafo Social neste ano mostrou como só apareciam pessoas brancas quando se procurava palavras genéricas como “pessoa” ou “família” no Shutterstock, maior banco de imagens do mundo. Para que uma pessoa negra aparecesse, era preciso especificar o termo “negro”.
Isso mostra que, para o algoritmo do banco de imagens, uma pessoa branca era o padrão. A polêmica fez o Shutterstock alterar seu sistema de busca.
“Embora seja uma fórmula matemática complexa, o algoritmo é, antes de tudo, feito por humanos, e pode reproduzir preconceitos e visões culturais diferentes”, explica Francisco Brito Cruz, do InternetLab, centro de pesquisa em direitos e internet. “O que é nudez inapropriada na Arábia Saudita, por exemplo, não é o mesmo que no Brasil: depende de quem criou o algoritmo.”
Diga-me com quem andas…
Por outro lado, até que ponto a polarização, o racismo e a discriminação são intensificados pelo algoritmo do Facebook, e até que ponto isso sempre existiu?
“Os pesquisadores ainda estão tentando encontrar métodos para responder satisfatoriamente a essa questão”, diz o sociólogo Nathan Matias, pesquisador do MIT Media Lab e do Centro de Tecnologia da Informação em Princeton. Matias, que trabalha nas áreas de psicologia, sociologia e teorias comportamentais, aponta que somos mais prováveis a procurar pessoas parecidas conosco mesmo fora das redes sociais.
Um estudo financiado pelo Facebook analisou as interações de 10,1 milhões milhões de usuários nos Estados Unidos com posts de notícias.
E observou que apenas 17% dos conservadores e 6% dos liberais clicaram em conteúdo do espectro ideológico oposto. Assim, como eles não interagem com esse conteúdo mais diverso, ensinam o algoritmo a não mostrar isso a eles.
Mas o estudo também revelou que a diversidade de conteúdo se relaciona, sobretudo, com o tipo de conteúdo postado pelos amigos — já que uma notícia compartilhada por pessoas próximas tem mais chance de aparecer no feed do Facebook do que se for postada pelo próprio jornal ou site. Diga-me com quem andas, e direi quem és.
Embora na tentativa de livrar a barra de seu próprio algoritmo, as conclusões do Facebook encontram repercussão em outros estudos.
Uma pesquisa de pesquisadores de Oxford e de Stanford que analisou os históricos de 50.000 usuários nos Estados Unidos mostrou que, de fato, as notícias e artigos que os usuários acessam nas redes sociais tendem a ser mais polarizados que aqueles que acessam quando vão diretamente à página de veículos jornalísticos.
Mas nem tudo é culpa do algoritmo: os usuários nas redes sociais até têm, sim, acesso a opiniões divergentes em suas timelines, mas optam por ignorá-las.
“Mesmo quando temos escolha, somos mais prováveis a prestar atenção a pessoas que são como nós e coisas com as quais concordamos. É uma discussão que vai além da rede social e é sobre como a sociedade está estruturada”, diz Matias, de Princeton.
Iniciativas para combater a polarização virtual vêm surgindo por parte das próprias empresas. O Facebook e o Google fizeram parcerias com agências de checagem mundo afora para tentar combater a disseminação de notícias falsas. As redes também vêm incentivando usuários a delatarem quando virem conteúdo extremo.
O grande desafio é usar a própria inteligência artificial, coleta de dados e programação do algoritmo para promover ações em larga escala. “É possível usar a própria inteligência artificial para tornar o algoritmo menos tóxico”, diz Francisco Brito, do InternetLab.
Pedir a todos que excluam suas redes sociais não é mais uma alternativa.