OpenAI busca contratar un nuevo ejecutivo responsable de investigar los riesgos emergentes relacionados con la IA en áreas que van desde la seguridad informática hasta la salud mental.
En una publicación en X, el director ejecutivo Sam Altman reconoció que los modelos de IA están «comenzando a presentar algunos desafíos reales», incluido «el impacto potencial de los modelos en la salud mental», y que «los modelos que son muy buenos en seguridad informática están comenzando a descubrir vulnerabilidades críticas».
«Si desea ayudar al mundo a comprender cómo hacer que todos los sistemas sean más seguros, idealmente habilitando a los defensores de la ciberseguridad con capacidades de vanguardia y al mismo tiempo evitando que los atacantes las utilicen para causar daño, considere postularse para desbloquear capacidades biológicas de manera similar y ganar confianza en la seguridad de los sistemas en ejecución que pueden mejorarse por sí solos», escribió Altman.
La lista de roles de oficial de preparación de OpenAI describe el trabajo como responsable de implementar el marco de preparación de la compañía, «un marco que describe el enfoque de OpenAI para rastrear y prepararse para capacidades de vanguardia que crean nuevos riesgos de daño significativo».
La compensación por este puesto es de $555,000 más capital.
Por primera vez, la compañía anunció la creación de un equipo de preparación en 2023, diciendo que sería responsable de investigar posibles «riesgos catastróficos», ya sean inmediatos como ataques de phishing o más especulativos como amenazas nucleares.
Menos de un año después, OpenAI reasignó al director de preparación, Aleksander Madry, a un trabajo centrado en la inferencia de IA. Otros ejecutivos de seguridad de OpenAI también dejaron la empresa o asumieron nuevos roles fuera de la preparación y la seguridad.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
La compañía también actualizó recientemente su marco de preparación y dijo que puede «ajustar» sus requisitos de seguridad si un laboratorio de IA de la competencia lanza un modelo de «alto riesgo» sin protecciones similares.
Como aludió Altman en su publicación, los chatbots de IA generativa se enfrentan a un mayor escrutinio con respecto a su impacto en la salud mental. Una demanda reciente alega que ChatGPT de OpenAI fomentó la paranoia en los usuarios, aumentó el aislamiento social e incluso llevó a algunos usuarios al suicidio. (La compañía dijo que continúa trabajando para mejorar la capacidad de ChatGPT para reconocer signos de angustia mental y conectar a los usuarios con soporte en el mundo real).
Source link
