- A OpenAI abriu vaga de head of preparedness com salário de US$ 555 mil por ano, para defender contra riscos de IA avançada, incluindo segurança, saúde mental, cibersegurança e biologia.
- O cargo envolve avaliar ameaças emergentes, monitorar capacidades futuras e mitigar danos graves, preparando a organização para cenários complexos.
- O CEO Sam Altman disse que o trabalho será estressante e que o escolhido precisará entrar no desafio de imediato.
- A vaga surge em meio a debates sobre regulação de IA, incidentes envolvendo o ChatGPT e ações judiciais contra a empresa.
- Casos recentes incluem processos ligados ao uso do ChatGPT e incidentes de IA autônoma; a OpenAI afirma revisar treinamentos para reconhecer sinais de sofrimento emocional e orientar usuários a apoio real.
OpenAI abriu uma vaga inédita de “head of preparedness” com salário anual de US$ 555 mil. O cargo exige defender a organização contra riscos de IA avançada, incluindo segurança, saúde mental, cibersegurança e consequências biológicas, além de monitorar possíveis cenários de uso indevido.
O cargo será ocupado por quem avalie e mitigue ameaças emergentes e acompanhe capacidades de fronteira que possam causar danos severos. A função envolve traduzir a teoria de risco em medidas práticas dentro de produtos e políticas da empresa.
A contratação ocorre em meio a debates sobre regulação de IA, ataques cibernéticos e ações judiciais envolvendo o ChatGPT. A companhia tem enfrentado processos que questionam a responsabilidade pelo uso da tecnologia e por danos alegados.
Contexto de riscos e regulações
Relatórios recentes destacam avaliações internas sobre os riscos de IA cada vez mais capaz. Executivos de tecnologia repetem alertas sobre possibilidades de abusos e impactos na saúde mental e na segurança pública. O tema permanece sem coordenação regulatória ampla.
A OpenAI também trabalha na melhoria de treinamentos de seus modelos para reconhecer sinais de sofrimento emocional e desescalonar conversas. Segundo a empresa, tais ajustes visam reduzir danos reais em usuários vulneráveis. Casos judiciais continuam em pauta.
Entre na conversa da comunidade