Inteligência Artificial

Por que a OpenAI, do ChatGPT, decidiu criar uma equipe 'anticatástrofe'

Iniciativa surge em um momento de crescente pressão regulatória e debate sobre os riscos e benefícios da inteligência artificial

Sam Altman: CEO da OpenAI fala abertamente sobre os potenciais riscos da inteligência artificial (AFP/AFP Photo)

Sam Altman: CEO da OpenAI fala abertamente sobre os potenciais riscos da inteligência artificial (AFP/AFP Photo)

Laura Pancini
Laura Pancini

Repórter

Publicado em 27 de outubro de 2023 às 12h27.

Última atualização em 27 de outubro de 2023 às 13h28.

Rastrear, prever e proteger. Essas são as principais responsabilidades de quem compõe a equipe "anticatástrofe" da OpenAI. A empresa por trás do ChatGPT anunciou que agora conta com um time interno para investigar modelos de IA e garantir proteção contra "riscos catastróficos", como descrito pela própria companhia, que hoje busca um valuation de US$ 86 bilhões.

Chamada Preparedness ("prevenção", em português), a equipe vai analisar a capacidade de IAs enganarem humanos, gerarem conteúdo de ódio ou até criar um código malicioso. Em uma parte da postagem feita pela OpenAI, a empresa lista ameaças "químicas, biológicas, radiológicas e nucleares" como possíveis áreas de preocupação.

O anúncio vem num momento em que a OpenAI está na mira de governos como o dos EUA, que buscam a regulação do uso de IA. A divulgação da nova equipe foi feita, inclusive, durante uma convenção sobre segurança da IA feita pelo governo do Reino Unido. Mas vale ressaltar que Sam Altman, CEO da OpenAI, sempre se mostrou aberto a discutir o potencial da inteligência artificial — e sempre com um olhar bastante pessimista.

A equipe de prevenção também será encarregada de formular uma política de desenvolvimento, que detalhará a abordagem da OpenAI para avaliar modelos de IA e as ações de mitigação de riscos. "Os modelos de IA, que excederão as capacidades atualmente presentes nos modelos mais avançados existentes, têm o potencial de beneficiar toda a humanidade, mas também representam riscos cada vez mais graves", escreveu a empresa em postagem. "Precisamos garantir que temos o conhecimento e a infraestrutura necessários para a segurança de sistemas de IA altamente capazes."

A OpenAI anunciou um prêmio de US$ 2,5 mil e um emprego na equipe "anticatástrofe" para as dez melhores sugestões de potenciais riscos em seus produtos. "Imagine que lhe demos acesso irrestrito a todos os modelos da OpenAI e você é um ator malicioso. Considere o uso indevido, embora ainda provável, e potencialmente catastrófico do modelo", propõe a empresa.

O CEO consciente

Sam Altman é mais do que aberto sobre os riscos da inteligência artificial generativa. O executivo já disse em entrevistas que se preocupa com o que concorrentes podem criar a partir da tecnologia e até assinou uma carta aberta alertando sobre o risco da IA "extinguir" a humanidade.

"Mitigar esse risco deveria ser uma prioridade global como pandemias e guerras nucleares", diz a carta, divulgada pelo Center for AI Safety no fim de maio. Como Altman é um dos pioneiros do que ele mesmo diz ter medo, a ironia chega a ser palpável. Mas vale ressaltar que a OpenAI, cofundada por Elon Musk em 2015, foi criada com o intuito de promover a tecnologia de forma aberta e em benefício da sociedade.

"Acho estranho quando as pessoas enxergam como uma humilhação quando digo que estou com um pouco de medo", disse Altman em um podcast americano no início do ano. "Seria uma loucura não ter medo". Apesar das falas, o CEO nunca disse que se arrepende de ter lançado o ChatGPT.

Acompanhe tudo sobre:Inteligência artificialOpenAIChatGPT

Mais de Inteligência Artificial

Você é você? Como essa unicórnio da Estônia usa IA para driblar deepfakes e outras falsificações

xAI vai superar a OpenAI? Empresa de Musk capta R$ 36 bi e desafia gigantes do setor

ChatGPT e 'David Mayer': o mistério do nome que a IA não reconhece

Projeto de regulamentação de IA no Brasil é aprovado em comissão no Senado e plenário analisa texto