Desinformação na era da internet
Quando economia e internet são analisadas conjuntamente, o foco é tipicamente dirigido aos benefícios propiciados pelo avanço da era digital. No entanto, a moeda tem outro lado: mudanças tecnológicas dão luz a riscos novos. Um deles é a disseminação vertiginosamente rápida de informações de má qualidade, mesmo que de forma não intencional. Uma série de […]
Da Redação
Publicado em 3 de julho de 2017 às 15h58.
Quando economia e internet são analisadas conjuntamente, o foco é tipicamente dirigido aos benefícios propiciados pelo avanço da era digital. No entanto, a moeda tem outro lado: mudanças tecnológicas dão luz a riscos novos. Um deles é a disseminação vertiginosamente rápida de informações de má qualidade, mesmo que de forma não intencional. Uma série de episódios recentes envolvendo indivíduos, empresas e até países sugere que a profusão de mentiras eletrônicas é uma ameaça ao bom funcionamento da democracia com implicações sociais, políticas e econômicas muito negativas.
Desde 2007, o Fórum Econômico Mundial publica anualmente um relatório com a matriz de riscos globais considerados mais salientes por tomadores de decisões e formadores de opinião. Riscos relacionados à dependência cibernética crescente apareceram entre os cinco principais em termos de probabilidade nos anos de 2007, 2012 e 2014. Na edição de 2017, o tema voltou ao topo das preocupações. Os entrevistados temem que um incidente em escala global envolvendo fraude ou roubo de informações possa ser fonte de grandes prejuízos no horizonte relevante.
Em exercícios de planejamento de longo prazo, é natural que recursos gerenciais escassos sejam concentrados em análise de problemas “pé no chão”, com danos potenciais mais facilmente mensuráveis, como, por exemplo, os derivados da frequência cada vez maior de eventos climáticos extremos, da desigualdade de renda muito elevada ou de desequilíbrios econômicos em países emergentes sistemicamente relevantes. Mas isso não quer dizer que os desafios novos produzidos por mudanças tecnológicas não devam ser ao menos considerados.
Há basicamente dois tipos de desinformação eletrônica. O primeiro equivale a alguém gritar “fogo” em um cinema – uma situação tensa em que a disseminação de uma informação falsa pode provocar danos relevantes antes que a verdade venha à tona, mas em que ninguém tem algum interesse a priori em alimentar a mentira. O segundo tipo deriva da disseminação de invencionices dentro de grupos de pessoas que pensam de forma semelhante e que têm predisposição a acreditar em fábulas coerentes com uma visão de mundo, descontando generosamente as tentativas de correção. Neste ambiente, a força moderadora de fontes externas confiáveis capazes de restaurar a razoabilidade é enfraquecida.
Os entulhos dos dois tipos são perigosos e as mídias sociais são ambientes propícios a sua reprodução. Facebook, Twitter, Whatsapp e congêneres são “mercados” em que notícias e informações competem pela atenção das pessoas. A tecnologia permite a disseminação muito rápida de dados em um sistema totalmente aberto, mutável, de fácil acesso e sujeito a normas e regras que ainda estão evoluindo. A rapidez da rede possibilita que informações erradas “viralizem”, provocando dano substancial mesmo quando os antídotos são aplicados com rapidez.
A questão que se coloca é saber se os usuários dessas mídias são capazes de desenvolver endogenamente defesas contra o risco do lixo eletrônico – por exemplo, o hábito de cultivar uma dose razoável de ceticismo diante do enorme fluxo de novidades que bombardeia nossos celulares a cada instante. Para os governos, o desafio é encontrar uma fórmula de regular o conteúdo sem violar o direito básico de liberdade de opinião com monstrengos autoritários disfarçados de “controle democrático da mídia” – algo tão simples quanto encontrar a quadratura do círculo.
Dá para confiar no surgimento espontâneo de padrões éticos e normas que disciplinem a difusão de conteúdo digital, favorecendo a verdade e a proliferação de informações de boa qualidade? As pessoas aprenderão a separar o joio do trigo promovendo a verdade em um encontro livre, competitivo e aberto de ideias? A boa notícia é que um grupo de pesquisadores, que inclui o brasileiro Diego Oliveira, publicou um artigo na última edição da revista Nature Human Behaviour para iluminar a questão – “ Limited individual attention and online virality of low-quality information ”. A má notícia é que a resposta não é das mais animadoras.
Para entender a viralização de informações de má qualidade em um ambiente competitivo, mas cooperativo, os autores desenharam um modelo de uma rede social em que os participantes valorizam informações de boa qualidade, mas têm limitações na administração de um fluxo de dados pesado demais. No âmbito do modelo, os autores medem a relação entre a qualidade das informações e a probabilidade de que elas venham a se consolidar como “verdade” no sistema.
Teoricamente, a rede social comporta um equilíbrio favorável que balanceia diversidade de um lado e capacidade de selecionar informações boas de outro (variedade e poder discriminatório). No entanto, quando calibrada a partir de parâmetros que emulam a realidade das mídias sociais existentes, o modelo revela que a sobrecarga de informações e a existência de limitações de atenção por parte dos participantes comprometem significativamente a capacidade discriminatória do sistema, elevando bastante a chance de viralização de lorotas.
Um aspecto interessante do modelo é que as informações difundidas possuem uma medida intrínseca de qualidade que é valorizada pelos participantes – ou seja, os autores partem do princípio que a verdade é desejada a priori. O problema é que o valor da informação não é o único atributo que determina a chance dela ser repassada – a popularidade acumulada em dado momento também conta, por exemplo. Neste contexto, quando um volume maciço de memes (elemento cultural da internet que é passado de um indivíduo para outro digitalmente), que competem entre si pela atenção dos usuários, encontra pessoas com capacidade de processamento restrita, a eficácia do sistema em separar o joio do trigo é severamente comprometida.
Os autores sugerem que se o modelo fosse ampliado para levar em conta a existência de vieses comportamentais dos indivíduos e aspectos técnicos das redes sociais existentes, a fragilização da relação entre qualidade e popularidade da informação seria ainda maior – por exemplo, a conhecida tendência à valorização de informações coerentes com crenças preexistentes e o emprego de algoritmos que dão ao consumidor aquilo que ele deseja. Ironicamente, os mecanismos existentes para ajudar a enfrentar um volume excessivo de informações comprometem a eficiência do “mercado”, tornando menos meritório e mais susceptível a manipulações o sucesso das histórias. Os marqueteiros adoram, mas a verdade vai para o ralo.
Não é preciso fazer muito esforço para observar que a história é verossímil. A quantidade de mentiras que levaram ao Brexit, a estratégia baseada em falsidades utilizada com sucesso por Trump, e a difusão de mitos impedindo uma análise equilibrada das reformas que estão pautadas aqui no Brasil são exemplos dos danos facilitados pelo lado sombrio da internet – que, de resto, é indubitavelmente uma das maravilhas do mundo moderno.
Não há muito que fazer para resolver o problema. A meu ver, regulação e controles não são o caminho. O sistema tem que encontrar formas próprias de premiar a verdade e o estudo da Nature mostra que há barreiras a esse progresso. Talvez seja preciso a ocorrência de mais alguns desastres para que os usuários comecem a demandar uma arquitetura mais robusta, quem sabe com o auxílio da própria tecnologia. Enquanto isso, o perigo da desinformação aumenta a responsabilidade de fontes críveis, acima de suspeitas, no fornecimento de relatos equilibrados e que considerem os vários ângulos das questões do dia-a-dia. A nós, resta manter o olho aberto e fazer figas porque a vantagem está do lado dos vigaristas.
Quando economia e internet são analisadas conjuntamente, o foco é tipicamente dirigido aos benefícios propiciados pelo avanço da era digital. No entanto, a moeda tem outro lado: mudanças tecnológicas dão luz a riscos novos. Um deles é a disseminação vertiginosamente rápida de informações de má qualidade, mesmo que de forma não intencional. Uma série de episódios recentes envolvendo indivíduos, empresas e até países sugere que a profusão de mentiras eletrônicas é uma ameaça ao bom funcionamento da democracia com implicações sociais, políticas e econômicas muito negativas.
Desde 2007, o Fórum Econômico Mundial publica anualmente um relatório com a matriz de riscos globais considerados mais salientes por tomadores de decisões e formadores de opinião. Riscos relacionados à dependência cibernética crescente apareceram entre os cinco principais em termos de probabilidade nos anos de 2007, 2012 e 2014. Na edição de 2017, o tema voltou ao topo das preocupações. Os entrevistados temem que um incidente em escala global envolvendo fraude ou roubo de informações possa ser fonte de grandes prejuízos no horizonte relevante.
Em exercícios de planejamento de longo prazo, é natural que recursos gerenciais escassos sejam concentrados em análise de problemas “pé no chão”, com danos potenciais mais facilmente mensuráveis, como, por exemplo, os derivados da frequência cada vez maior de eventos climáticos extremos, da desigualdade de renda muito elevada ou de desequilíbrios econômicos em países emergentes sistemicamente relevantes. Mas isso não quer dizer que os desafios novos produzidos por mudanças tecnológicas não devam ser ao menos considerados.
Há basicamente dois tipos de desinformação eletrônica. O primeiro equivale a alguém gritar “fogo” em um cinema – uma situação tensa em que a disseminação de uma informação falsa pode provocar danos relevantes antes que a verdade venha à tona, mas em que ninguém tem algum interesse a priori em alimentar a mentira. O segundo tipo deriva da disseminação de invencionices dentro de grupos de pessoas que pensam de forma semelhante e que têm predisposição a acreditar em fábulas coerentes com uma visão de mundo, descontando generosamente as tentativas de correção. Neste ambiente, a força moderadora de fontes externas confiáveis capazes de restaurar a razoabilidade é enfraquecida.
Os entulhos dos dois tipos são perigosos e as mídias sociais são ambientes propícios a sua reprodução. Facebook, Twitter, Whatsapp e congêneres são “mercados” em que notícias e informações competem pela atenção das pessoas. A tecnologia permite a disseminação muito rápida de dados em um sistema totalmente aberto, mutável, de fácil acesso e sujeito a normas e regras que ainda estão evoluindo. A rapidez da rede possibilita que informações erradas “viralizem”, provocando dano substancial mesmo quando os antídotos são aplicados com rapidez.
A questão que se coloca é saber se os usuários dessas mídias são capazes de desenvolver endogenamente defesas contra o risco do lixo eletrônico – por exemplo, o hábito de cultivar uma dose razoável de ceticismo diante do enorme fluxo de novidades que bombardeia nossos celulares a cada instante. Para os governos, o desafio é encontrar uma fórmula de regular o conteúdo sem violar o direito básico de liberdade de opinião com monstrengos autoritários disfarçados de “controle democrático da mídia” – algo tão simples quanto encontrar a quadratura do círculo.
Dá para confiar no surgimento espontâneo de padrões éticos e normas que disciplinem a difusão de conteúdo digital, favorecendo a verdade e a proliferação de informações de boa qualidade? As pessoas aprenderão a separar o joio do trigo promovendo a verdade em um encontro livre, competitivo e aberto de ideias? A boa notícia é que um grupo de pesquisadores, que inclui o brasileiro Diego Oliveira, publicou um artigo na última edição da revista Nature Human Behaviour para iluminar a questão – “ Limited individual attention and online virality of low-quality information ”. A má notícia é que a resposta não é das mais animadoras.
Para entender a viralização de informações de má qualidade em um ambiente competitivo, mas cooperativo, os autores desenharam um modelo de uma rede social em que os participantes valorizam informações de boa qualidade, mas têm limitações na administração de um fluxo de dados pesado demais. No âmbito do modelo, os autores medem a relação entre a qualidade das informações e a probabilidade de que elas venham a se consolidar como “verdade” no sistema.
Teoricamente, a rede social comporta um equilíbrio favorável que balanceia diversidade de um lado e capacidade de selecionar informações boas de outro (variedade e poder discriminatório). No entanto, quando calibrada a partir de parâmetros que emulam a realidade das mídias sociais existentes, o modelo revela que a sobrecarga de informações e a existência de limitações de atenção por parte dos participantes comprometem significativamente a capacidade discriminatória do sistema, elevando bastante a chance de viralização de lorotas.
Um aspecto interessante do modelo é que as informações difundidas possuem uma medida intrínseca de qualidade que é valorizada pelos participantes – ou seja, os autores partem do princípio que a verdade é desejada a priori. O problema é que o valor da informação não é o único atributo que determina a chance dela ser repassada – a popularidade acumulada em dado momento também conta, por exemplo. Neste contexto, quando um volume maciço de memes (elemento cultural da internet que é passado de um indivíduo para outro digitalmente), que competem entre si pela atenção dos usuários, encontra pessoas com capacidade de processamento restrita, a eficácia do sistema em separar o joio do trigo é severamente comprometida.
Os autores sugerem que se o modelo fosse ampliado para levar em conta a existência de vieses comportamentais dos indivíduos e aspectos técnicos das redes sociais existentes, a fragilização da relação entre qualidade e popularidade da informação seria ainda maior – por exemplo, a conhecida tendência à valorização de informações coerentes com crenças preexistentes e o emprego de algoritmos que dão ao consumidor aquilo que ele deseja. Ironicamente, os mecanismos existentes para ajudar a enfrentar um volume excessivo de informações comprometem a eficiência do “mercado”, tornando menos meritório e mais susceptível a manipulações o sucesso das histórias. Os marqueteiros adoram, mas a verdade vai para o ralo.
Não é preciso fazer muito esforço para observar que a história é verossímil. A quantidade de mentiras que levaram ao Brexit, a estratégia baseada em falsidades utilizada com sucesso por Trump, e a difusão de mitos impedindo uma análise equilibrada das reformas que estão pautadas aqui no Brasil são exemplos dos danos facilitados pelo lado sombrio da internet – que, de resto, é indubitavelmente uma das maravilhas do mundo moderno.
Não há muito que fazer para resolver o problema. A meu ver, regulação e controles não são o caminho. O sistema tem que encontrar formas próprias de premiar a verdade e o estudo da Nature mostra que há barreiras a esse progresso. Talvez seja preciso a ocorrência de mais alguns desastres para que os usuários comecem a demandar uma arquitetura mais robusta, quem sabe com o auxílio da própria tecnologia. Enquanto isso, o perigo da desinformação aumenta a responsabilidade de fontes críveis, acima de suspeitas, no fornecimento de relatos equilibrados e que considerem os vários ângulos das questões do dia-a-dia. A nós, resta manter o olho aberto e fazer figas porque a vantagem está do lado dos vigaristas.