Google estaria usando a IA Claude para melhorar o Gemini, diz site
Funcionários da empresa avaliam respostas dos modelos concorrentes para aprimorar a IA do buscador
Redação Exame
Publicado em 26 de dezembro de 2024 às 10h29.
Última atualização em 26 de dezembro de 2024 às 10h29.
Contratados da Google encarregados de melhorar a inteligência artificial Gemini estão comparando suas respostas às do modelo concorrente Claude, desenvolvido pela Anthropic, segundo emails internos vistos pelo site TechCrunch.A prática levanta questões sobre o uso de tecnologias de concorrentes em testes internos, especialmente sem confirmação de permissão.
Quando questionada pelo site, o Google não informou se obteve autorização da Anthropic para utilizar o Claude nos testes. A Anthropic, por sua vez, não comentou o assunto. Nos contratos comerciais da Anthropic, o uso do Claude para “desenvolver produtos ou serviços concorrentes” ou “treinar modelos de IA concorrentes” é explicitamente proibido sem aprovação prévia.
Os contratados da Google avaliam as respostas do Gemini de acordo com critérios como precisão, segurança e completude, dedicando até 30 minutos para cada análise.Um email revelou que, em alguns casos, as respostas do Claude foram destacadas por priorizar configurações mais rigorosas de segurança.Um exemplo citado foi a recusa do Claude em responder a perguntas consideradas inseguras, como simular outro assistente de IA, enquanto o Gemini gerou respostas inadequadas, incluindo “violação grave de segurança” por conteúdo sensível.
Uma mensagem interna entre contratados apontou: “As configurações de segurança do Claude são as mais rigorosas” entre os modelos avaliados. Já o Gemini foi criticado por falhas na filtragem de conteúdo, como incluir “nudez” em uma resposta.
A rivalidade entre Google e Anthropic ganha destaque, pois a primeira é também uma grande investidora da startup. A prática de comparar respostas entre modelos concorrentes é comum na indústria, mas o uso direto de ferramentas de competidores sob restrições contratuais pode gerar implicações éticas e legais.