Inteligência Artificial

Meta lança FACET, uma ferramenta para corrigir vieses em IAs que analisam humanos em fotos

A FACET promete oferecer aos pesquisadores e profissionais uma maneira de desvendar vieses ocultos e disparidades em sistemas de IA que analisam e interpretam imagens

FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados  (Meta/Divulgação)

FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados (Meta/Divulgação)

André Lopes
André Lopes

Repórter

Publicado em 5 de setembro de 2023 às 09h47.

Última atualização em 5 de setembro de 2023 às 09h50.

A Meta, responsável pela plataforma Facebook e Instagram, introduziu no fim de agosto uma nova ferramenta chamada FACET, destinada à avaliação de modelos de visão computacional.

Com o acrônimo de “Avaliação de Justiça em Visão Computacional“, ou “FAirness in Computer Vision EvaluaTion”, a FACET tem como objetivo proporcionar a pesquisadores e profissionais insights sobre possíveis vieses e disparidades em sistemas de inteligência artificial (IA) que interpretam imagens.

A iniciativa surge em resposta a estudos que indicam disparidades no desempenho de modelos de visão computacional baseadas em atributos demográficos, como gênero e tom de pele.

Segundo a empresa, a necessidade de uma metodologia padronizada para mensurar tais diferenças em aplicações comuns dessa tecnologia é o que a moveu a desenvolver o FACET.

Como funciona o FACET

Composto por um conjunto de 32.000 imagens e representando 50.000 indivíduos etiquetados por analistas, o FACET abrange informações como ocupações, atividades e atributos demográficos.

Estes dados foram complementados com detalhes sobre características físicas, como cabelo e vestuário, extraídas do conjunto de dados Segment Anything 1 Billion, também da Meta.

Especialistas contratados pela empresa anotaram manualmente atributos relacionados a cada pessoa nas imagens, incluindo detalhes como tipo de cabelo e profissão.

A aquisição dessas imagens se deu através de um fornecedor, levantando questões sobre a informação prévia dada aos retratados sobre sua utilização e a remuneração.

Em um documento técnico, a Meta esclareceu que os especialistas foram recrutados globalmente, incluindo regiões como América do Norte, América Latina, Oriente Médio, África, Sudeste Asiático e Ásia Oriental. A remuneração foi estabelecida com base nas condições econômicas de cada região.

Ao aplicar o FACET ao algoritmo DINOv2, de visão computacional da própria Meta, identificaram-se vieses, como associações estereotipadas de gênero. A empresa reconheceu essas falhas e expressou planos de abordar tais questões em futuros desenvolvimentos.

Acompanhe tudo sobre:Inteligência artificialMeta

Mais de Inteligência Artificial

Quando a IA se torna ferramenta de vigilância política

Namorada gerada por IA? Aplicativo quer acabar com a 'crise de solidão' no Japão

Cerca de 80% das empresas no Brasil investiram ou vão investir em IA nos próximos 12 meses

OpenAI define cinco níveis para alcançar a inteligência artificial humana

Mais na Exame