Carreira

O novo emprego da OpenAI é 'estressante' e paga 500 mil dólares por ano

Vaga é para prever e mitigar os riscos da própria tecnologia criada pela companhia, como falhas de segurança, impactos na saúde mental dos usuários e possíveis abusos por agentes mal-intencionados

Daniel Giussani
Daniel Giussani

Repórter de Negócios

Publicado em 29 de dezembro de 2025 às 11h53.

Enquanto a inteligência artificial se torna cada vez mais poderosa — e difícil de controlar — a OpenAI, dona do ChatGPT, tenta mostrar que está comprometida com a segurança digital e dos usuários.

A mais recente prova é que empresa abriu uma nova vaga para liderar essa missão. E o salário não é baixo: 555.000 dólares por ano, mais participação acionária.

A função é para liderar a área de preparedness, ou preparação, um braço da equipe de segurança da OpenAI.

A missão: prever e mitigar os riscos da própria tecnologia criada pela companhia, como falhas de segurança, impactos na saúde mental dos usuários e possíveis abusos por agentes mal-intencionados.

A vaga ganhou atenção depois que o próprio CEO, Sam Altman, descreveu o cargo como “estressante” em uma postagem na rede social X.

“Você vai cair de cabeça praticamente no primeiro dia”, escreveu Altman, que também chamou a posição de “um papel crítico em um momento importante”.

Em 2024, diversos funcionários que atuavam nessa frente de segurança na OpenAI deixaram a empresa, alegando que o compromisso com segurança vinha sendo deixado de lado em nome da velocidade e do lucro.

Um deles foi Jan Leike, ex-líder da equipe de segurança, que escreveu: “A construção de máquinas mais inteligentes que os humanos é, por natureza, perigosa. Mas nos últimos anos, cultura e processos de segurança foram colocados em segundo plano diante de produtos chamativos”.

Uma vaga, muitos alertas

A nova função está ligada à equipe de Safety Systems, responsável por desenvolver testes, modelos de ameaças e mecanismos de mitigação.

Segundo o anúncio, a pessoa contratada será “responsável direta por coordenar avaliações de capacidade, modelos de ameaça e soluções que componham um pipeline de segurança coerente, rigoroso e escalável”.

A empresa afirma que os riscos estão crescendo à medida que os modelos evoluem.

“Os modelos estão ficando muito bons em segurança de computadores, a ponto de começarem a encontrar vulnerabilidades críticas”, escreveu Altman. Ele também destacou os impactos sobre a saúde mental como um dos desafios vistos já em 2025, com usuários tratando os chatbots como substitutos de terapia — algo que, segundo a própria empresa, agravou casos de delírio e comportamento preocupante.

Em outubro, a OpenAI anunciou que estava trabalhando com especialistas em saúde mental para adaptar o comportamento do ChatGPT diante de sinais de psicose ou automutilação entre os usuários.

Acompanhe tudo sobre:OpenAIChatGPTInteligência artificial

Mais de Carreira

Como uma empresária transformou um problema doméstico em um negócio de US$ 10 milhões

Florianópolis anuncia concurso público com salários de até R$ 21 mil

‘O aprendizado acontece no caminho, não antes’: uma verdade que ninguém quer ouvir sobre performance

Os padrões invisíveis podem revelar o que realmente acontece na sua equipe sem você saber