Anthropic tiene hasta el viernes por la noche para elegir entre dar al ejército estadounidense acceso ilimitado a sus modelos de IA o afrontar las consecuencias, informa Axios.
El secretario de Defensa, Pete Hegseth, dijo al director general de Anthropic, Dario Amodei, durante una reunión del martes por la mañana que el Pentágono designará a Anthropic como un «riesgo de la cadena de suministro», una designación normalmente reservada para adversarios extranjeros, o invocará la Ley de Producción de Defensa (DPA) para obligar a la empresa a adaptar una versión de su modelo a las necesidades militares.
La DPA otorga al presidente el poder de obligar a las empresas a priorizar o ampliar la producción para la defensa nacional. La ley fue invocada recientemente durante la pandemia de COVID-19 para obligar a empresas como General Motors y 3M a producir ventiladores y mascarillas, respectivamente.
Anthropic ha dicho durante mucho tiempo que no quiere que su tecnología se utilice para la vigilancia masiva de estadounidenses o para armas totalmente autónomas, y se niega a ceder en esos puntos.
Los funcionarios del Pentágono sostienen que el uso de la tecnología por parte de los militares debería estar regulado por la ley estadounidense y los límites constitucionales, no por las políticas de uso de los contratistas privados.
El uso de la DPA en disputas sobre las barreras de seguridad de la IA marcaría una expansión significativa del uso moderno de la ley. También puede reflejar un patrón más amplio de inestabilidad del poder ejecutivo que se ha intensificado en los últimos años, dijo Dean Ball, miembro principal de la American Innovation Foundation y ex asesor principal de políticas sobre IA en la Casa Blanca de Trump.
«Básicamente sería el gobierno diciendo: ‘Si no estás de acuerdo políticamente con nosotros, te sacaremos del negocio'», dijo Ball.
evento de crisis tecnológica
bostón, massachusetts
|
9 de junio de 2026
La disputa se desarrolla en un contexto de fricción ideológica, y algunos miembros de la administración, incluido el zar de AI, David Sachs, critican públicamente las políticas de seguridad de Anthropic como «despertadas».
«Cualquier inversor o empresario razonable y responsable miraría esto y pensaría que Estados Unidos ya no es un lugar estable para hacer negocios», dijo Ball. «Esto ataca los cimientos mismos de lo que hace de Estados Unidos un centro clave para el comercio mundial. Siempre hemos tenido un sistema legal estable y predecible».
Este es un juego serio de gallina, y es posible que Anthropic no sea el primero en parpadear. Según Reuters, Anthropic no tiene planes de aliviar las restricciones de uso.
Según varios informes, Anthropic es el único laboratorio de IA fronterizo clasificado y con acceso al Departamento de Defensa. Aunque el Pentágono actualmente no tiene opciones de respaldo, se informa que llegó a un acuerdo para utilizar Grok de xAI en sistemas clasificados.
La falta de redundancia puede ayudar a explicar la postura agresiva del Pentágono, argumentó Ball.
«Si Anthropic cancelara el contrato mañana, sería un problema grave para el Departamento de Defensa», dijo a TechCrunch, señalando que el Pentágono parece no estar cumpliendo con un memorando de seguridad nacional de la última administración de Biden que ordenaba a las agencias federales evitar depender de un único sistema de inteligencia artificial fronterizo clasificado.
«El Departamento de Defensa no tiene respaldo. Aquí estamos en una situación de un solo proveedor», continuó. «No pueden resolverlo de la noche a la mañana».
TechCrunch se ha puesto en contacto con Anthropic y el Departamento de Defensa para solicitar comentarios.
Source link
