FACET, da Meta, em ação: análise calibrada para IAs com banco de dados enviesados (Meta/Divulgação)
Repórter
Publicado em 5 de setembro de 2023 às 09h47.
Última atualização em 5 de setembro de 2023 às 09h50.
A Meta, responsável pela plataforma Facebook e Instagram, introduziu no fim de agosto uma nova ferramenta chamada FACET, destinada à avaliação de modelos de visão computacional.
Com o acrônimo de “Avaliação de Justiça em Visão Computacional“, ou “FAirness in Computer Vision EvaluaTion”, a FACET tem como objetivo proporcionar a pesquisadores e profissionais insights sobre possíveis vieses e disparidades em sistemas de inteligência artificial (IA) que interpretam imagens.
A iniciativa surge em resposta a estudos que indicam disparidades no desempenho de modelos de visão computacional baseadas em atributos demográficos, como gênero e tom de pele.
Segundo a empresa, a necessidade de uma metodologia padronizada para mensurar tais diferenças em aplicações comuns dessa tecnologia é o que a moveu a desenvolver o FACET.
Composto por um conjunto de 32.000 imagens e representando 50.000 indivíduos etiquetados por analistas, o FACET abrange informações como ocupações, atividades e atributos demográficos.
Estes dados foram complementados com detalhes sobre características físicas, como cabelo e vestuário, extraídas do conjunto de dados Segment Anything 1 Billion, também da Meta.
Especialistas contratados pela empresa anotaram manualmente atributos relacionados a cada pessoa nas imagens, incluindo detalhes como tipo de cabelo e profissão.
A aquisição dessas imagens se deu através de um fornecedor, levantando questões sobre a informação prévia dada aos retratados sobre sua utilização e a remuneração.
Em um documento técnico, a Meta esclareceu que os especialistas foram recrutados globalmente, incluindo regiões como América do Norte, América Latina, Oriente Médio, África, Sudeste Asiático e Ásia Oriental. A remuneração foi estabelecida com base nas condições econômicas de cada região.
Ao aplicar o FACET ao algoritmo DINOv2, de visão computacional da própria Meta, identificaram-se vieses, como associações estereotipadas de gênero. A empresa reconheceu essas falhas e expressou planos de abordar tais questões em futuros desenvolvimentos.