Anthropic cumplió su promesa de impugnar el asunto ante los tribunales después de que el Departamento de Defensa (DOD) a fines de la semana pasada lo identificara como un riesgo para la cadena de suministro.
Después de semanas de conflicto entre Anthropic y el Pentágono sobre si los militares deberían tener acceso ilimitado a los sistemas de inteligencia artificial de Anthropic, el creador de Claude presentó dos quejas contra el Pentágono en California y Washington, D.C. el lunes. Anthropic tenía dos líneas firmes. No querían que su tecnología se utilizara para la vigilancia masiva de los estadounidenses y no creían que estuvieran preparados para desarrollar armas totalmente autónomas que no requirieran que los humanos determinaran los objetivos o tomaran decisiones de disparo.
El secretario de Defensa, Pete Hegseth, argumentó que el Pentágono debería tener acceso a los sistemas de inteligencia artificial «para cualquier propósito legal» y no debería estar restringido por contratistas privados.
Las etiquetas de riesgo de la cadena de suministro generalmente están reservadas para adversarios extranjeros y requieren que las empresas y agencias que trabajan con el Departamento de Defensa certifiquen que no están utilizando el modelo de Anthropic. Aunque algunas empresas privadas todavía trabajan con Anthropic, la empresa perderá gran parte de sus negocios dentro del gobierno.
En una denuncia presentada en el tribunal federal de San Francisco, Anthropic calificó las acciones del Pentágono de «sin precedentes e ilegales» y lo acusó de represalias. «La Constitución no autoriza al gobierno a utilizar un gran poder para castigar a las corporaciones por su expresión protegida», afirma la demanda.
Según la denuncia, el discurso protegido al que se refiere Anthropic es sus creencias sobre las «limitaciones de sus servicios de IA y cuestiones importantes relacionadas con la seguridad de la IA». La administración, incluido el secretario de Defensa Hegseth y el presidente Trump, ha criticado a Anthropic y al director ejecutivo, Dario Amodei, calificándolos de «despertados» y «radicales» por los llamados de la compañía a medidas más estrictas de seguridad y transparencia de la IA.
Anthropic argumentó en su demanda que si bien el gobierno no tiene que estar de acuerdo con sus puntos de vista ni utilizar sus productos, no puede usar el poder estatal para castigar o reprimir la expresión de Anthropic.
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
Anthropic también argumentó que la designación de riesgo de la cadena de suministro del Pentágono se emitió «sin seguir los procedimientos requeridos por el Congreso» y que «no existe ninguna ley federal que autorice las acciones tomadas aquí». La ley generalmente exige que las agencias gubernamentales realicen una evaluación de riesgos, notifiquen a las empresas específicas para permitirles responder, tomen una determinación de seguridad nacional por escrito y notifiquen al Congreso antes de eliminar a un proveedor de la cadena de suministro federal.
La compañía también acusa al presidente de actuar fuera de la autoridad que le otorgó el Congreso cuando ordenó a todas las agencias federales que dejaran de usar inmediatamente la tecnología de Anthropic después de que Amodei dijera que no adoptaría una línea dura. Tras las declaraciones del presidente Trump y el secretario Hegseth, la Administración de Servicios Generales (la agencia federal que gestiona las contrataciones y compras gubernamentales) rescindió el contrato OneGov de Anthropic y puso fin al uso de los servicios de Anthropic para las tres ramas del gobierno federal.
«Los demandados buscan destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo», afirma la denuncia. “Las acciones impugnadas causan un daño inmediato e irreparable a la humanidad, a otros cuyos comentarios serán ridiculizados, a quienes se benefician del valor económico que la empresa continúa generando y al público mundial que merece un diálogo y un debate sólidos sobre lo que significa la IA para la guerra y la vigilancia”.
Como parte de su denuncia, Anthropic pidió al tribunal que suspendiera inmediatamente la designación del Departamento de Defensa mientras avanza el litigio y, en última instancia, invalidara la designación del gobierno y bloqueara permanentemente su aplicación.
«Si bien buscar una revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger la seguridad nacional, es un paso necesario para proteger nuestro negocio, clientes y socios», dijo un portavoz de Anthropic en un comunicado. «Continuaremos buscando todas las vías para lograr una resolución, incluido el diálogo con el gobierno».
Anthropic presentó una queja por separado en el Tribunal de Apelaciones del Circuito de D.C. porque la ley federal de adquisiciones permite a las empresas apelar las designaciones de riesgo de la cadena de suministro. La petición solicita al tribunal que revise y anule la decisión del Departamento de Defensa de designar a la empresa como un riesgo para la cadena de suministro de seguridad nacional. Anthropic argumentó en su denuncia que la medida fue ilegal, una represalia y se ejecutó incorrectamente según la ley federal de adquisiciones.
Este artículo se actualizó con más información y noticias de que Anthropic presentó una demanda separada en el Tribunal de Apelaciones del Circuito de D.C.
Source link
