Inteligência Artificial

OpenAI cria comitê de segurança enquanto começa a treinar próximo modelo de IA

Companhia de inteligência artificial terão comitê de segurança para analisar novo modelo

OpenAI está testando novo modelo de inteligência artificial (Anadolu Agency/Getty Images)

OpenAI está testando novo modelo de inteligência artificial (Anadolu Agency/Getty Images)

Fernando Olivieri
Fernando Olivieri

Redator na Exame

Publicado em 28 de maio de 2024 às 14h22.

Última atualização em 28 de maio de 2024 às 14h26.

Tudo sobreInteligência artificial
Saiba mais

A OpenAI anunciou na terça-feira, 28, a formação de um Comitê de Segurança e Proteção, liderado pelo CEO Sam Altman, enquanto inicia o treinamento de seu próximo modelo de inteligência artificial, de acordo com a Reuters. Os diretores Bret Taylor, Adam D'Angelo e Nicole Seligman também liderarão o comitê, conforme publicado no blog da empresa.

Os antigos cientistas-chefes Ilya Sutskever e Jan Leike, que lideravam a equipe de 'Super alinhamento' da OpenAI, apoiada pela Microsoft, deixaram a empresa no início deste mês. Criada para garantir que a IA se mantenha alinhada com os objetivos pretendidos, a equipe foi dissolvida em maio, menos de um ano após sua criação, segundo a CNBC.

O novo comitê será responsável por fazer recomendações ao conselho sobre decisões de segurança e proteção para os projetos e operações da OpenAI. A primeira tarefa será avaliar e desenvolver ainda mais as práticas de segurança existentes da OpenAI nos próximos 90 dias, após o que compartilhará recomendações com o conselho.

Após a revisão do conselho, a OpenAI compartilhará publicamente uma atualização sobre as recomendações adotadas. Outros membros do comitê incluem especialistas técnicos e de políticas da empresa, Aleksander Madry, Lilian Weng e o chefe de ciências de alinhamento, John Schulman. O recém-nomeado cientista-chefe Jakub Pachocki e o chefe de segurança Matt Knight também farão parte do comitê.

Segurança na IA é assunto sensível

A segurança no desenvolvimento e implementação de sistemas de inteligência artificial é um tópico de crescente importância, especialmente à medida que esses sistemas se tornam mais complexos e integrados em diversas áreas da sociedade. Com o poder de influenciar decisões críticas em setores como saúde, finanças e segurança nacional, é essencial que as práticas de segurança sejam rigorosas para evitar falhas que possam ter consequências graves.

Os desafios de segurança incluem garantir que os sistemas de IA permaneçam alinhados com os objetivos humanos, prevenindo o uso indevido e protegendo contra ataques cibernéticos. Além disso, a transparência e a responsabilidade no desenvolvimento de IA são cruciais para construir confiança pública. Organizações como a OpenAI estão na vanguarda desses esforços, estabelecendo comitês e práticas dedicadas para assegurar que a IA seja desenvolvida de forma segura e responsável.

Acompanhe tudo sobre:OpenAIInteligência artificialTecnologia

Mais de Inteligência Artificial

A IA no cotidiano: entre a produtividade e o riso

OpenAI melhora processo de recrutamento por temer espiões chineses

A inteligência artificial consegue contar boas piadas? Pesquisadores fizeram o teste

Cofundador da OpenAI anuncia lançamento de nova empresa de IA

Mais na Exame