
Anthropic Inc. respondió el viernes después de que el Secretario de Defensa de Estados Unidos, Pete Hegseth, ordenara al Pentágono que designara las nuevas empresas de inteligencia artificial (IA) como un «riesgo para la cadena de suministro».
«Esta acción sigue a meses de negociaciones estancadas sobre dos excepciones que solicitamos para el uso legal de nuestro modelo de IA Claude: vigilancia masiva interna de estadounidenses y armas totalmente autónomas», dijo la compañía en un comunicado.
«Ninguna amenaza o castigo por parte del Departamento del Ejército cambiará la posición de nuestro país sobre la vigilancia masiva interna o las armas totalmente autónomas».
El presidente de Estados Unidos, Donald Trump, dijo en una publicación en Truth Social en las redes sociales que ordenará a todas las agencias federales que eliminen gradualmente el uso de tecnología humana en los próximos seis meses. Una publicación X posterior de Hegseth exigió que todos los contratistas, proveedores y socios que hicieran negocios con el ejército de los EE. UU. cesaran inmediatamente la «actividad comercial con Anthropic».
«Junto con la dirección del presidente que pide al gobierno federal que cese todo uso de la tecnología de Anthropic, estoy ordenando al Departamento del Ejército que designe a Anthropic como un riesgo de la cadena de suministro para la seguridad nacional», escribió Hegseth.
La designación se produce después de semanas de negociaciones entre el Departamento de Defensa y Anthropic sobre el uso del modelo de IA por parte del ejército estadounidense. En una publicación publicada esta semana, la compañía argumentó que el contrato no debería fomentar la vigilancia masiva nacional ni el desarrollo de armas autónomas.
«Apoyamos el uso de la IA para misiones legítimas de inteligencia y contrainteligencia extranjeras», dijo Antropic. «Sin embargo, el uso de estos sistemas para la vigilancia masiva nacional es incompatible con los valores democráticos. La vigilancia masiva con IA plantea nuevos riesgos importantes para nuestras libertades fundamentales».
La compañía también criticó la posición del Departamento del Ejército de EE. UU. (DoW) de eliminar cualquier salvaguarda que pueda existir y trabajar solo con compañías de IA que permitan «todos los usos legales» de la tecnología como parte de sus esfuerzos para construir una fuerza de combate «primero la IA» y fortalecer la seguridad nacional.
«La diversidad, la equidad, la inclusión y la ideología social no tienen cabida en el DoW, por lo que no deberían emplearse modelos de IA que incorporen ‘ajustes’ ideológicos que interfieran con su capacidad de proporcionar respuestas objetivamente veraces a las indicaciones de los usuarios», decía un memorando emitido por el Departamento de Defensa el mes pasado.
«El Departamento también debe utilizar modelos que no estén sujetos a políticas de uso que puedan limitar las aplicaciones militares legítimas».
En respuesta a la designación, Anthropic calificó la designación de «legalmente errónea» y dijo que sentaría un precedente peligroso para las empresas estadounidenses que negocian con el gobierno. También señaló que la designación de riesgo de la cadena de suministro según 10 USC 3252 se aplica solo al uso de Claude como parte de un contrato DoW y no afecta el uso de Claude para brindar servicios a otros clientes.
Cientos de empleados de Google y OpenAI firmaron una carta abierta pidiendo a las empresas que cooperen con Anthropic en su conflicto con el Departamento de Defensa sobre aplicaciones militares para herramientas de inteligencia artificial como Claude.
El conflicto entre Anthropic y el gobierno de EE. UU. surgió después de que el director ejecutivo de OpenAI, Sam Altman, dijera que OpenAI había llegado a un acuerdo con el Departamento de Defensa de EE. UU. (DoD) para implementar modelos en redes clasificadas. También pidió al Departamento de Defensa que extendiera estas condiciones a todas las empresas de IA.
«La seguridad y la distribución más amplia de beneficios de la IA son fundamentales para nuestra misión. Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva interna y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos», dijo Altman en una publicación en X. «El Departamento de Guerra está de acuerdo con estos principios y los refleja en nuestras leyes y políticas, y los hemos incluido en nuestros acuerdos».
Source link
