Tecnologia

As redes sociais querem que você sinta raiva. Mas isso pode prejudicá-las

Em entrevista à EXAME, Kate O'Neill afirmou que "a raiva é um sentimento de alto engajamento" e que nem tudo pode ser deixado "nas mãos das empresas"

Redes sociais: algoritmos querem que você fique bravo, mas não precisa ser assim (miakievy/Getty Images)

Redes sociais: algoritmos querem que você fique bravo, mas não precisa ser assim (miakievy/Getty Images)

Tamires Vitorio

Tamires Vitorio

Publicado em 23 de junho de 2020 às 06h00.

Entre uma reação de raiva no Facebook, uma curtida no Twitter e um like no Instagram existem diversos algoritmos que decidem mostrar certos conteúdos voltados para você com base nos seus gostos em cada rede social e também em seus termos pesquisados em mecanismos como o Google.

Esses algoritmos  trabalham para priorizar conteúdos com mais engajamento e fortalecem a noção de uma “bolha”. Por exemplo, se um usuário for mais interessado em vídeos de gatos, rapidamente as plataformas irão sugerir apenas conteúdos do tipo. “As redes sociais frequentemente se baseiam em memes para fazer impressões rápidas nas pessoas conforme elas veem os feeds, e é tudo extremo e reducionista, o que faz tudo menos eliminar as nuances e áreas de interesse comum”, afirma a autora e consultora no setor de tecnologia Kate O’Neill, uma das primeiras 100 funcionárias da Netflix.

Mas essa raiva pode ser prejudicial para as redes sociais a longo prazo. “Isso leva a um uso maior de gatilhos de engajamento, principalmente o emoji de raiva no Facebook, o que pode ser um fator na hora dos algoritmos determinarem o que deve ser mostrado a alguém. Isso acelera o ciclo de raiva manufaturada. E a raiva é um sentimento de alto engajamento, então cria tensão para a plataforma, porque elas não incentivadas a reduzir esse ciclo.”

Para O’Neill, a iniciativa recente do Twitter de perguntar se o usuário leu um artigo antes de postá-lo pode ser um “experimento sensível e apresentar uma oportunidade cognitiva na pausa do ciclo raivoso”.

Mesmo assim, segundo a especialista, não se pode deixar “tudo nas mãos das redes sociais”, uma vez que elas não conseguirão --- e nem querem --- lidar com o problema sozinhas. “As fake news e a desinformação são problemas para as próprias plataformas, uma vez que impactam a confiança das pessoas nelas ao longo do tempo. Mas elas são um problema muito maior para as pessoas. E esse tipo de problema é o que faz sentido explorar do ponto de vista de regulação”, afirma O’Neill. “As redes sociais não agirão de forma assertiva se tudo for deixado nas mãos delas”, diz. Uma preocupação da especialista é se as regulações serão válidas até mesmo para figuras de autoridades, como políticos e pessoas de influência, que também estão sujeitas a espalhar conteúdos falsos e desinformação.

Foi o que aconteceu no fim de maio com o presidente americano Donald Trump. Em seu perfil no Twitter, ele escreveu duas postagens. Em uma delas, dizia que as caixas de correio seriam roubadas e as cédulas de votação, usadas na eleição presidencial, seriam fraudadas. Em outra, Trump atacou Gavin Newsom, governador da Califórnia, dizendo que o político estaria enviando cédulas a milhões de pessoas. Os tuites foram sinalizados como duvidosos, e pela primeira vez as publicações de um presidente americano receberam um selo de alerta.

Mas a decisão do Twitter de deletar o tuite agressivo de Trump pode não ser o suficiente. Para O’Neill, “muitas outras publicações do presidente também promoviam a violência e não foram retiradas do ar”.

O conserto para as redes sociais, assim como um carro antigo cujas peças pararam de ser fabricadas, será um desafio. E nem mesmo o Google tem a resposta certa para isso.

Acompanhe tudo sobre:FacebookRedes sociaisTwitter

Mais de Tecnologia

Cada vez mais raras: apenas uma startup brasileira se tornou unicórnio em 2024

Robôs de carregamento transformam mercado de veículos elétricos na China

Xangai se consolida como terceiro maior centro global de fintech

Taxa de autossuficiência energética da China fica acima de 80% em 2024