Exame Logo

É preciso cuidado para a tecnologia não materializar opressão, afirma antropólogo

Em entrevista ao Canal UM BRASIL, antropólogo David Nemer adverte para o risco de desenvolvimento de tecnologias carregar preconceitos dos seus criadores

antropólogo David Nemer (UM BRASIL/Divulgação)
UM BRASIL

Hub de conteúdo

Publicado em 5 de agosto de 2023 às 10h00.

A tecnologia não está imune aos vieses humanos e à experiência de vida de seus desenvolvedores. Muitas vezes, essas ferramentas nem sequer se adequam ao contexto de vida dos locais onde são implementadas, por carregar e refletir os viveres do ambiente no qual surgiu — o que pode, inclusive, se intensificar quando pensamos em aprendizado autônomo do algoritmo. O grande problema disso são as marcas de discriminação que podem estar contidas em praticamente qualquer tecnologia acessível. A partir disso, o diagnóstico central de uma inovação precisa ser o próprio impacto de opressão social que pode causar, defende David Nemer, antropólogo e professor no departamento de Estudos de Mídia na Universidade de Virgínia (Estados Unidos).

“Por se tratar de uma sociedade que ainda lida muito com racismo, homofobia e misoginia — e considerando a demografia que desenvolve a tecnologia (geralmente, formada por pessoas brancas) —, os problemas estruturais tendem a ser trazidos para os códigos e consumados em forma de tecnologia. Não é uma surpresa o fato de a tecnologia não ser neutra, nunca foi. O cuidado [que devemos ter] é em como essas ferramentas podem materializar as opressões”, destaca o professor, em entrevista ao Canal UM BRASIL, uma realização da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP).

Veja também

Como exemplo de tecnologia que carrega um viés e poder ser prejudicial, o professor cita a reserva de mercado de algumas redes sociais para que os consumidores consigam acessá-las pela operadora de telefonia sem custos. Apesar de isso parecer positivo inicialmente, o que ocorre é que, muitas vezes, a pessoa que não tem condições de arcar com um plano de internet fica impossibilitada de acessar um site de notícias para checar se alguma informação que recebeu pelo WhatsApp ou Facebook é verdadeira. “Nesse caso, os dados patrocinados só funcionam internamente na rede. Algo que parece ser facilitador, que são os dados gratuitos, pode prejudicar muito mais na questão do acesso à informação de valor. É assim que a tecnologia funciona para oprimir.”

A reversão desse quadro começa com a inserção, nas mesas de decisões nas quais as tecnologias são definidas e desenvolvidas, de pessoas que convivem em ambiente marcado por opressão. “Contudo, isso requer uma cadeia de ações, inclusive educativas, como inclusão nas universidades, ensinos técnicos, estágios etc. As discussões sobre classismo e racismo também acompanham os processos de educação e de recrutamento de novos talentos.”

Mecanismos de regulação das plataformas

Conforme o País avança no debate acerca da regulamentação das plataformas, assim como a liberdade e as responsabilidades social e coorporativa na internet, será que este é mesmo o processo que pode possibilitar uma saída aos problemas que Nemer aponta? Para o pesquisador, esse é um caminho potencial, considerando o amplo grupo de especialistas e membros do Poder Público engajados em escutar a sociedade civil e dar uma resposta aos conflitos sociais que têm se intensificado — como os ataques armados a escolas, vários deles organizados via redes sociais.

“Eu tenho confiança de que seja um passo importante para uma regulamentação que toque o todo da questão na qual estamos inseridos, pois as plataformas se envolvem com diversas áreas das nossas vidas, não se trata somente de um espaço de postagem de fotos e mensagens”, argumenta.

Acompanhe tudo sobre:Inteligência artificialempresas-de-tecnologiaRacismo

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se

Mais de Brasil

Mais na Exame