El Departamento de Defensa (DOD) notificó formalmente a los líderes de Anthropic que la compañía y sus productos han sido designados como riesgos para la cadena de suministro, informó Bloomberg, citando a un alto funcionario del Departamento de Defensa (DOD).
La designación se produjo después de semanas de conflicto entre el Instituto AI y el Departamento de Defensa. El director ejecutivo de Anthropic, Dario Amodei, se ha negado a permitir que los militares utilicen sus sistemas de inteligencia artificial para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas totalmente autónomas sin asistencia humana para determinar objetivos y disparar. El ministerio sostiene que el uso de la IA no debería estar restringido por parte de contratistas privados.
Las designaciones de riesgo de la cadena de suministro suelen estar reservadas para adversarios extranjeros. La etiqueta solicita a las empresas y agencias que trabajan con el Departamento de Defensa que certifiquen que no están utilizando modelos antrópicos.
Las conclusiones del Pentágono amenazan con perturbar tanto a la empresa como a sus propias operaciones. Anthropic es el único laboratorio de inteligencia artificial de vanguardia con sistemas de respuesta clasificados. Actualmente, el ejército estadounidense depende de Claude para las operaciones en Irán, y el ejército estadounidense está utilizando herramientas de inteligencia artificial para administrar rápidamente los datos para las operaciones. Según Bloomberg, Claude es una de las herramientas clave instaladas en el sistema inteligente Maven de Palantir, en el que confían los operadores militares en Medio Oriente.
Algunos críticos dicen que etiquetar a Anthropic como un riesgo para la cadena de suministro debido a este desacuerdo es una medida sin precedentes por parte del departamento. Dean Ball, quien se desempeñó como asesor de inteligencia artificial del presidente Trump, calificó la designación como el «estertor de muerte» de la república estadounidense, argumentando que el gobierno está abandonando la claridad estratégica y el respeto en favor de un tribalismo «vicioso» que trata a los innovadores nacionales peor que a los adversarios extranjeros.
Cientos de empleados de OpenAI y Google instaron al Departamento de Defensa a revocar esa designación y pidieron al Congreso que revierta lo que consideran un ejercicio inapropiado de poder sobre las empresas tecnológicas estadounidenses. También pidieron a los líderes nacionales que se unan para seguir rechazando las demandas del Pentágono de utilizar sus modelos de inteligencia artificial para la vigilancia masiva interna y «matar personas de forma autónoma sin supervisión humana».
TechCrunch se ha puesto en contacto con Anthropic para hacer comentarios.
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
En medio del conflicto, OpenAI firmó su propio acuerdo con el ministerio que permite al ejército utilizar sus sistemas de IA para «todos los fines legales». Algunos de los empleados de la empresa han expresado su preocupación por el lenguaje vago en el contrato, que podría conducir exactamente al tipo de uso que Anthropic intentaba evitar.
Amodei calificó las acciones del Pentágono como «represalias y punitivas» y, según se informa, su negativa a elogiar o donar al presidente Trump contribuyó al conflicto con el Pentágono. El presidente de OpenAI, Greg Brockman, es un ávido partidario de Trump y recientemente donó 25 millones de dólares al super PAC de MAGA Inc..
Source link
