Serviços de inteligência artificial: como medir a evolução dos modelos de linguagem? (Jonathan Raa/Getty Images)
Repórter
Publicado em 11 de novembro de 2024 às 13h44.
Com o avanço rápido das tecnologias de inteligência artificial, líderes do setor, incluindo OpenAI, Microsoft, Meta e Anthropic, estão criando novos parâmetros de avaliação para acompanhar as habilidades de modelos que operam cada vez mais próximos da IA autônoma, capaz de realizar tarefas complexas de maneira independente de humanos.
O desafio dessas empresas é desenvolver métricas que acompanhem essa evolução e possibilitem medir com precisão o desempenho e a capacidade desses sistemas.
A aceleração da indústria de IA tem levado os modelos mais recentes a atingirem até 90% de precisão nos testes padrões, ou benchmarks, destacando a urgência de novos métodos de avaliação. Esses benchmarks tradicionais, que contam com questões de múltipla escolha para testar o senso comum e o conhecimento geral, já não capturam a complexidade crescente dos novos modelos.
No entanto, enquanto essas empresas desenvolvem métodos próprios para avaliação, cresce a preocupação sobre a transparência e a padronização de critérios.
Para preencher essa lacuna, iniciativas como o SWE-bench Verified, benchmark atualizado em agosto, propõem avaliações mais práticas, envolvendo problemas de programação no mundo real.
A partir de códigos do GitHub, o teste solicita que os modelos de IA identifiquem e resolvam falhas em repositórios de código, exigindo habilidades de raciocínio.
No último teste, o modelo GPT-4o da OpenAI solucionou 41,4% dos problemas, enquanto o Claude 3.5 Sonnet da Anthropic alcançou 49%. Esse desempenho ilustra a complexidade crescente desses testes, que precisam avaliar o uso de ferramentas externas e simular cenários reais.
Nesse contexto, o simples formato de prompt e resposta se mostra insuficiente.
Ao mesmo tempo, a necessidade de problemas inéditos e mantidos fora do domínio público se intensifica para evitar que os modelos “trapaceiem” ao encontrar respostas pré-existentes em seus dados de treinamento.
Outro exemplo é o FrontierMath, benchmark desenvolvido por matemáticos que demonstra como os modelos mais avançados conseguem resolver menos de 2% das questões.
Para especialistas, sem consenso sobre como medir essas capacidades, o setor enfrenta dificuldades em comparar tecnologias e comunicar o valor dos modelos aos consumidores e empresas.