Según admite el propio CEO Sam Altman, el acuerdo de OpenAI con el Departamento de Defensa es «definitivamente apresurado» y «la óptica no pinta bien».
Después de que las negociaciones de Anthropic con el Pentágono fracasaran el viernes, el presidente Donald Trump ordenó a las agencias federales que dejaran de usar la tecnología de Anthropic después de un período de transición de seis meses, y el secretario de Defensa, Pete Hegseth, dijo que designaría a la empresa de inteligencia artificial como un riesgo para la cadena de suministro.
Luego, OpenAI anunció rápidamente que había llegado a su propio acuerdo para implementar el modelo en un entorno clasificado. Anthropic dijo que traza una línea cuando se trata de armas totalmente autónomas y el uso de su tecnología en vigilancia masiva doméstica, y Altman dijo que existe la misma línea para OpenAI, pero había algunas preguntas obvias. «¿OpenAI fue honesto acerca de sus medidas de seguridad?» ¿Por qué Anthropic pudo llegar a un acuerdo cuando no pudo?
Entonces, mientras los ejecutivos de OpenAI defendieron el acuerdo en las redes sociales, la compañía también publicó una publicación en su blog que describe su enfoque.
De hecho, la publicación enumera tres áreas donde los modelos de OpenAI no se pueden utilizar: vigilancia masiva nacional, sistemas de armas autónomos y «decisiones automatizadas de alto riesgo (como sistemas como el crédito social)».
La compañía dijo que, a diferencia de otras compañías de IA que han «reducido o eliminado las barreras de seguridad y dependen principalmente de las políticas de uso como medida de seguridad principal en los despliegues de seguridad nacional», el contrato de OpenAI protege las líneas rojas «a través de un enfoque más amplio y por capas».
«Mantenemos total discreción sobre nuestra pila de seguridad, la implementamos a través de la nube, contamos con personal autorizado de OpenAI informado y tenemos fuertes protecciones contractuales», decía el blog. «Todo esto se suma a las ya sólidas protecciones de la ley estadounidense».
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
La empresa añadió: «No sabemos por qué Anthropic no llegó a este acuerdo, pero esperamos que Anthropic y más laboratorios lo consideren».
Después de que se publicó la publicación, Mike Masnick de TechDirt argumentó que el acuerdo «autoriza absolutamente la vigilancia nacional» porque dice que la recopilación de datos personales está sujeta a la Orden Ejecutiva 12333 (junto con varias otras leyes). Masnick describió la orden como «una forma de que la NSA encubra su vigilancia interna mediante escuchas telefónicas *fuera de Estados Unidos* y captura de comunicaciones, incluso si contienen información de o sobre estadounidenses».
Katrina Mulligan, directora de Asociaciones de Seguridad Nacional de OpenAI, argumentó en una publicación en LinkedIn que gran parte del debate sobre el lenguaje del contrato supone que «lo único que se interpone entre el pueblo estadounidense y el uso de la IA para la vigilancia masiva nacional y las armas autónomas es una cláusula de política de un solo uso en un contrato único con el Departamento del Ejército».
«Esto no va a funcionar de una forma u otra», dijo Mulligan, y agregó que «la arquitectura de implementación es más importante que el lenguaje del contrato (…) Al limitar la implementación a las API de la nube, nos aseguramos de que nuestro modelo no se integre directamente en sistemas de armas, sensores u otro hardware operativo».
Altman también respondió a las preguntas sobre el acuerdo con la Compañía X, admitiendo que se hizo demasiado rápido y causó una gran reacción contra OpenAI (el sábado, Claude de Anthropic superó a ChatGPT de OpenAI en la App Store de Apple). Entonces, ¿por qué hacerlo?
«Realmente queríamos reducir la situación y pensamos que el acuerdo que se ofreció era bueno», dijo Altman. «Si nuestro juicio es correcto y esto conduce a una distensión entre el Departamento de Dow y la industria, pareceremos un genio y una empresa que ha hecho todo lo posible para ayudar a la industria. De lo contrario, (…) seguiremos siendo caracterizados como apresurados y descuidados».
Source link
