Inteligência Artificial

Meta lança FACET, uma ferramenta para corrigir vieses em IAs que analisam humanos em fotos

A FACET promete oferecer aos pesquisadores e profissionais uma maneira de desvendar vieses ocultos e disparidades em sistemas de IA que analisam e interpretam imagens

FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados  (Meta/Divulgação)

FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados (Meta/Divulgação)

André Lopes
André Lopes

Repórter

Publicado em 5 de setembro de 2023 às 09h47.

Última atualização em 5 de setembro de 2023 às 09h50.

A Meta, responsável pela plataforma Facebook e Instagram, introduziu no fim de agosto uma nova ferramenta chamada FACET, destinada à avaliação de modelos de visão computacional.

Com o acrônimo de “Avaliação de Justiça em Visão Computacional“, ou “FAirness in Computer Vision EvaluaTion”, a FACET tem como objetivo proporcionar a pesquisadores e profissionais insights sobre possíveis vieses e disparidades em sistemas de inteligência artificial (IA) que interpretam imagens.

A iniciativa surge em resposta a estudos que indicam disparidades no desempenho de modelos de visão computacional baseadas em atributos demográficos, como gênero e tom de pele.

Segundo a empresa, a necessidade de uma metodologia padronizada para mensurar tais diferenças em aplicações comuns dessa tecnologia é o que a moveu a desenvolver o FACET.

Como funciona o FACET

Composto por um conjunto de 32.000 imagens e representando 50.000 indivíduos etiquetados por analistas, o FACET abrange informações como ocupações, atividades e atributos demográficos.

Estes dados foram complementados com detalhes sobre características físicas, como cabelo e vestuário, extraídas do conjunto de dados Segment Anything 1 Billion, também da Meta.

Especialistas contratados pela empresa anotaram manualmente atributos relacionados a cada pessoa nas imagens, incluindo detalhes como tipo de cabelo e profissão.

A aquisição dessas imagens se deu através de um fornecedor, levantando questões sobre a informação prévia dada aos retratados sobre sua utilização e a remuneração.

Em um documento técnico, a Meta esclareceu que os especialistas foram recrutados globalmente, incluindo regiões como América do Norte, América Latina, Oriente Médio, África, Sudeste Asiático e Ásia Oriental. A remuneração foi estabelecida com base nas condições econômicas de cada região.

Ao aplicar o FACET ao algoritmo DINOv2, de visão computacional da própria Meta, identificaram-se vieses, como associações estereotipadas de gênero. A empresa reconheceu essas falhas e expressou planos de abordar tais questões em futuros desenvolvimentos.

Acompanhe tudo sobre:Inteligência artificialMeta

Mais de Inteligência Artificial

O paradoxo da produtividade: o erro comum na implementação de IA nas empresas

A OpenAI está desesperada por um IPO? E por que isso pode acontecer mais cedo do que se imagina

Engenheira brasileira cria IA chamada “Maria” para equilibrar a vida profissional e pessoal

Com impulso da IA, Dell surpreende Wall Street com aumento de 80% nas vendas de servidores

Mais na Exame