Repórter de Negócios
Publicado em 29 de dezembro de 2025 às 11h53.
Enquanto a inteligência artificial se torna cada vez mais poderosa — e difícil de controlar — a OpenAI, dona do ChatGPT, tenta mostrar que está comprometida com a segurança digital e dos usuários.
A mais recente prova é que empresa abriu uma nova vaga para liderar essa missão. E o salário não é baixo: 555.000 dólares por ano, mais participação acionária.
A função é para liderar a área de preparedness, ou preparação, um braço da equipe de segurança da OpenAI.
A missão: prever e mitigar os riscos da própria tecnologia criada pela companhia, como falhas de segurança, impactos na saúde mental dos usuários e possíveis abusos por agentes mal-intencionados.
A vaga ganhou atenção depois que o próprio CEO, Sam Altman, descreveu o cargo como “estressante” em uma postagem na rede social X.
“Você vai cair de cabeça praticamente no primeiro dia”, escreveu Altman, que também chamou a posição de “um papel crítico em um momento importante”.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
Em 2024, diversos funcionários que atuavam nessa frente de segurança na OpenAI deixaram a empresa, alegando que o compromisso com segurança vinha sendo deixado de lado em nome da velocidade e do lucro.
Um deles foi Jan Leike, ex-líder da equipe de segurança, que escreveu: “A construção de máquinas mais inteligentes que os humanos é, por natureza, perigosa. Mas nos últimos anos, cultura e processos de segurança foram colocados em segundo plano diante de produtos chamativos”.
A nova função está ligada à equipe de Safety Systems, responsável por desenvolver testes, modelos de ameaças e mecanismos de mitigação.
Segundo o anúncio, a pessoa contratada será “responsável direta por coordenar avaliações de capacidade, modelos de ameaça e soluções que componham um pipeline de segurança coerente, rigoroso e escalável”.
A empresa afirma que os riscos estão crescendo à medida que os modelos evoluem.
“Os modelos estão ficando muito bons em segurança de computadores, a ponto de começarem a encontrar vulnerabilidades críticas”, escreveu Altman. Ele também destacou os impactos sobre a saúde mental como um dos desafios vistos já em 2025, com usuários tratando os chatbots como substitutos de terapia — algo que, segundo a própria empresa, agravou casos de delírio e comportamento preocupante.
Em outubro, a OpenAI anunciou que estava trabalhando com especialistas em saúde mental para adaptar o comportamento do ChatGPT diante de sinais de psicose ou automutilação entre os usuários.