Dario Amodei dijo el jueves que Anthropic planea impugnar ante los tribunales la decisión del Pentágono de designar a las empresas de inteligencia artificial como riesgos para la cadena de suministro, una designación que calificó de «legalmente errónea».
La declaración se produjo horas después de que el Pentágono designara formalmente a Anthropic como un riesgo para la cadena de suministro después de semanas de controversia sobre cuánto control debería tener el ejército sobre sus sistemas de inteligencia artificial. Las designaciones de riesgo de la cadena de suministro podrían prohibir a las empresas trabajar con el Departamento de Defensa o sus contratistas. Amodei trazó una línea clara de que la IA de Anthropic no se utilizaría para la vigilancia masiva de estadounidenses o para armas totalmente autónomas, pero creía que el Pentágono debería tener acceso sin restricciones para «todos los fines legales».
Amodei dijo en un comunicado que la mayoría de los clientes de Anthropic no se verán afectados por la designación de riesgo de la cadena de suministro.
«Para nuestros clientes, esto claramente se aplica sólo al uso de Claude por parte del cliente como parte directa de un contrato con el Departamento del Ejército, y no se aplica a todo uso de Claude por parte de clientes con dichos contratos», dijo.
En un precursor de lo que Anthropic argumentará ante el tribunal, Amodei dijo que la carta del departamento que clasificaba a la empresa como un riesgo para la cadena de suministro tenía un alcance limitado.
«Esta ley existe para proteger al gobierno, no para castigar a los proveedores. De hecho, esta ley exige que el Secretario del Ejército utilice las medidas menos restrictivas necesarias para lograr el objetivo de proteger la cadena de suministro», dijo Amodei. «Incluso si usted es un contratista del Departamento del Ejército, la designación de riesgo de la cadena de suministro no limita (y no puede) limitar su uso de Claude o su relación comercial con Anthropic Corporation si no está relacionada con su contrato específico con el Departamento del Ejército».
Amodei reiteró que Anthropic había estado teniendo conversaciones productivas con el Pentágono durante los últimos días, pero dijo que algunos sospechosos pueden haber descarrilado la conversación después de que se filtrara un memorando interno que Anthropic envió al personal. En él, Amodei caracterizó el acuerdo entre su rival OpenAI y el Pentágono como «teatro de seguridad».
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
OpenAI firmó un contrato para trabajar con el Departamento de Defensa en nombre de Anthropic, una medida que provocó una reacción violenta entre el personal de OpenAI.
Amodei se disculpó por la filtración en un comunicado el jueves e insistió en que la compañía no compartió intencionalmente el memorando ni ordenó a nadie que lo compartiera. «No nos conviene agravar la situación», afirmó.
Amodei dijo que el memorando fue escrito «a las pocas horas» de una serie de anuncios, incluida la publicación de Truth Social del presidente para eliminar a Anthropic del sistema federal, la designación de riesgo de la cadena de suministro del entonces Secretario de Defensa, Pete Hegseth, y finalmente el anuncio del acuerdo del Pentágono con OpenAI. Lo calificó como un «día difícil para la empresa», se disculpó por su tono y dijo que el memorando no reflejaba sus «puntos de vista cuidadosos o considerados». Fue escrito hace seis días y ahora es una «evaluación obsoleta», añadió.
Concluyó diciendo que la principal prioridad de Anthropic es garantizar que los soldados estadounidenses y los profesionales de seguridad nacional mantengan el acceso a herramientas críticas durante las operaciones de combate a gran escala en curso. Anthropic actualmente respalda algunas de las operaciones estadounidenses en Irán, y Amodei dijo que la compañía continuará proporcionando modelos al Departamento de Defensa a un «costo nominal» «durante el tiempo que sea necesario para la transición».
Anthropic probablemente podría impugnar la designación en un tribunal federal de Washington, pero la ley detrás de la decisión limita las formas habituales en que las empresas impugnan las decisiones de contratación pública y otorga al Pentágono una amplia discreción en cuestiones de seguridad nacional, lo que dificulta el desafío.
O, como dijo Dean Ball, ex asesor de inteligencia artificial de la Casa Blanca durante la administración Trump que se pronunció en contra del trato humano de Hegseth: «Los tribunales son bastante reacios a cuestionar al gobierno sobre lo que es y lo que no es una cuestión de seguridad nacional… Hay un listón muy alto que superar para hacerlo. Pero no es imposible».
Source link
