Los esfuerzos legales de Elon Musk para desmantelar OpenAI pueden depender de cómo su filial comercial fortalezca o socave la misión fundacional de Frontier Labs de garantizar que la humanidad se beneficie de la inteligencia artificial general.
El jueves, un tribunal federal en Oakland, California, escuchó el testimonio de ex empleados y directores que dijeron que los esfuerzos de la compañía para impulsar los productos de IA al mercado socavaban su compromiso con la seguridad de la IA.
Rosie Campbell se unió al equipo de preparación de AGI de la compañía en 2021, pero dejó OpenAI en 2024 cuando el equipo se disolvió. Otro equipo centrado en la seguridad, el Super Alignment Team, también cerró casi al mismo tiempo.
“Cuando comencé, había mucho énfasis en la investigación y era común hablar sobre AGI y cuestiones de seguridad”, testificó. «Con el tiempo, nos convertimos en una organización más centrada en el producto».
Durante el contrainterrogatorio, Campbell reconoció que el objetivo del instituto de construir AGI probablemente requeriría una financiación significativa, pero dijo que la creación de modelos informáticos superinteligentes sin las garantías adecuadas no encajaba con la misión de la organización a la que se unió por primera vez.
Campbell señaló un incidente en el que Microsoft introdujo una versión de su modelo GPT-4 en la India a través del motor de búsqueda Bing antes de que fuera evaluada por la Junta de Seguridad de Implementación (DSB) de la compañía. Dijo que si bien el modelo en sí no representaba un riesgo significativo, la compañía «necesitaba sentar un precedente sólido a medida que la tecnología se vuelve más poderosa. Queremos implementar buenos procesos de seguridad que sabemos que se seguirán de manera confiable».
Los abogados de OpenAI también obligaron a Campbell a reconocer en su «opinión especulativa» que el enfoque de seguridad de OpenAI es mejor que el de xAI, la empresa de inteligencia artificial fundada por Musk y adquirida por SpaceX a principios de este año.
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
Aunque OpenAI publica evaluaciones de sus modelos y su marco de seguridad, la compañía se negó a comentar sobre su enfoque actual para el ajuste de AGI. El actual jefe de preparación, Dylan Scandinaro, fue contratado procedente de Anthropic en febrero. Altman dijo que la contratación «me ayudará a dormir mejor esta noche».
Pero el lanzamiento de GPT-4 en India fue una de las señales de alerta que llevaron a la junta sin fines de lucro de OpenAI a despedir al director ejecutivo Sam Altman en 2023. El incidente se produjo después de que los empleados, incluido el entonces científico jefe Ilya Satskeva y la entonces directora de tecnología Mila Murati, se quejaran del estilo de gestión de Altman para evitar conflictos. Tasha McCauley, miembro de la junta en ese momento, testificó sobre las preocupaciones de que Altman no fuera lo suficientemente activo como para hacer que la estructura inusual de la junta funcionara.
El Sr. McCauley también habló sobre el patrón ampliamente reportado del Sr. Altman de engañar a la junta directiva. En particular, Altman mintió a otro miembro de la junta directiva sobre la intención de Macquarie de despedir a un tercer miembro de la junta directiva, Helen Toner, quien publicó un libro blanco que contenía críticas implícitas a las políticas de seguridad de OpenAI. Altman tampoco notificó a la junta directiva su decisión de lanzar ChatGPT públicamente, y los miembros estaban preocupados por el hecho de que Altman no revelara posibles conflictos de intereses.
«Somos una junta sin fines de lucro y nuestra misión era poder supervisar las entidades con fines de lucro que están debajo de nosotros», dijo McCauley al tribunal. «Se cuestionaba la forma en que se suponía que debíamos hacer las cosas. No teníamos confianza en que la información que se transmitía nos permitiera tomar decisiones informadas».
Sin embargo, la decisión de despedir a Altman coincidió con la oferta de adquisición de la empresa por sus empleados. McCauley dijo que cuando el personal de OpenAI comenzó a ponerse del lado de Altman y Microsoft intentó restaurar el status quo, la junta finalmente cambió de rumbo y los miembros que se oponían a Altman renunciaron.
La incapacidad de las juntas directivas sin fines de lucro para influir en las organizaciones con fines de lucro es clara, y la transformación de OpenAI de una organización de investigación a una de las empresas privadas más grandes del mundo es directamente relevante para la demanda de Musk, que alega que violó el acuerdo tácito de los fundadores de la organización.
David Scissor, ex decano de la Facultad de Derecho de Columbia a quien el equipo de Musk le pagó como testigo experto, se hizo eco de las preocupaciones de McCauley.
«OpenAI enfatiza que la seguridad es una parte clave de su misión y tenemos la intención de priorizar la seguridad sobre las ganancias», dijo Scissor. «Parte de eso es tomar en serio las normas de seguridad. Si algo necesita estar sujeto a una revisión de seguridad, es necesario hacerlo. Es una cuestión de proceso».
La IA ya está profundamente arraigada en las empresas comerciales y el problema se extiende mucho más allá de un solo laboratorio. McCauley dijo que las fallas de gobernanza interna de OpenAI deberían ser una razón para aceptar una regulación gubernamental más estricta de la IA avanzada. «Si todo se reduce a decisiones tomadas por un director ejecutivo y el interés público está en juego, eso es muy subóptimo».
Si compra a través de enlaces en nuestros artículos, podemos ganar una pequeña comisión. Esto no afecta la independencia editorial.
Source link
