Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

El Departamento de Defensa designa riesgos en la cadena de suministro inducidos por humanos en torno al conflicto militar de IA

OpenAI despide a un empleado por utilizar información confidencial en mercados de predicción

El Departamento de Defensa designará a los seres humanos como riesgo en la cadena de suministro

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»El Departamento de Defensa designa riesgos en la cadena de suministro inducidos por humanos en torno al conflicto militar de IA
Identidad

El Departamento de Defensa designa riesgos en la cadena de suministro inducidos por humanos en torno al conflicto militar de IA

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comfebrero 28, 2026No hay comentarios4 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Ravi Lakshmanan28 de febrero de 2026Seguridad Nacional/Inteligencia Artificial

El Departamento de Defensa designa a la humanidad

Anthropic Inc. respondió el viernes después de que el Secretario de Defensa de Estados Unidos, Pete Hegseth, ordenara al Pentágono que designara las nuevas empresas de inteligencia artificial (IA) como un «riesgo para la cadena de suministro».

«Esta acción sigue a meses de negociaciones estancadas sobre dos excepciones que solicitamos para el uso legal de nuestro modelo de IA Claude: vigilancia masiva interna de estadounidenses y armas totalmente autónomas», dijo la compañía en un comunicado.

«Ninguna amenaza o castigo por parte del Departamento del Ejército cambiará la posición de nuestro país sobre la vigilancia masiva interna o las armas totalmente autónomas».

El presidente de Estados Unidos, Donald Trump, dijo en una publicación en Truth Social en las redes sociales que ordenará a todas las agencias federales que eliminen gradualmente el uso de tecnología humana en los próximos seis meses. Una publicación X posterior de Hegseth exigió que todos los contratistas, proveedores y socios que hicieran negocios con el ejército de los EE. UU. cesaran inmediatamente la «actividad comercial con Anthropic».

«Junto con la dirección del presidente que pide al gobierno federal que cese todo uso de la tecnología de Anthropic, estoy ordenando al Departamento del Ejército que designe a Anthropic como un riesgo de la cadena de suministro para la seguridad nacional», escribió Hegseth.

La designación se produce después de semanas de negociaciones entre el Departamento de Defensa y Anthropic sobre el uso del modelo de IA por parte del ejército estadounidense. En una publicación publicada esta semana, la compañía argumentó que el contrato no debería fomentar la vigilancia masiva nacional ni el desarrollo de armas autónomas.

«Apoyamos el uso de la IA para misiones legítimas de inteligencia y contrainteligencia extranjeras», dijo Antropic. «Sin embargo, el uso de estos sistemas para la vigilancia masiva nacional es incompatible con los valores democráticos. La vigilancia masiva con IA plantea nuevos riesgos importantes para nuestras libertades fundamentales».

La compañía también criticó la posición del Departamento del Ejército de EE. UU. (DoW) de eliminar cualquier salvaguarda que pueda existir y trabajar solo con compañías de IA que permitan «todos los usos legales» de la tecnología como parte de sus esfuerzos para construir una fuerza de combate «primero la IA» y fortalecer la seguridad nacional.

«La diversidad, la equidad, la inclusión y la ideología social no tienen cabida en el DoW, por lo que no deberían emplearse modelos de IA que incorporen ‘ajustes’ ideológicos que interfieran con su capacidad de proporcionar respuestas objetivamente veraces a las indicaciones de los usuarios», decía un memorando emitido por el Departamento de Defensa el mes pasado.

«El Departamento también debe utilizar modelos que no estén sujetos a políticas de uso que puedan limitar las aplicaciones militares legítimas».

En respuesta a la designación, Anthropic calificó la designación de «legalmente errónea» y dijo que sentaría un precedente peligroso para las empresas estadounidenses que negocian con el gobierno. También señaló que la designación de riesgo de la cadena de suministro según 10 USC 3252 se aplica solo al uso de Claude como parte de un contrato DoW y no afecta el uso de Claude para brindar servicios a otros clientes.

Cientos de empleados de Google y OpenAI firmaron una carta abierta pidiendo a las empresas que cooperen con Anthropic en su conflicto con el Departamento de Defensa sobre aplicaciones militares para herramientas de inteligencia artificial como Claude.

El conflicto entre Anthropic y el gobierno de EE. UU. surgió después de que el director ejecutivo de OpenAI, Sam Altman, dijera que OpenAI había llegado a un acuerdo con el Departamento de Defensa de EE. UU. (DoD) para implementar modelos en redes clasificadas. También pidió al Departamento de Defensa que extendiera estas condiciones a todas las empresas de IA.

«La seguridad y la distribución más amplia de beneficios de la IA son fundamentales para nuestra misión. Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva interna y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos», dijo Altman en una publicación en X. «El Departamento de Guerra está de acuerdo con estos principios y los refleja en nuestras leyes y políticas, y los hemos incluido en nuestros acuerdos».


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleOpenAI despide a un empleado por utilizar información confidencial en mercados de predicción
corp@blsindustriaytecnologia.com
  • Website

Related Posts

El Departamento de Justicia incauta 61 millones de dólares en Tether vinculado a la estafa criptográfica del sacrificio de cerdos

febrero 27, 2026

El ataque web shell en curso compromete más de 900 instancias de Sangoma FreePBX

febrero 27, 2026

El módulo criptográfico Malicious Go roba contraseñas e implementa una puerta trasera de Rekoobe

febrero 27, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

El Departamento de Defensa designa riesgos en la cadena de suministro inducidos por humanos en torno al conflicto militar de IA

OpenAI despide a un empleado por utilizar información confidencial en mercados de predicción

El Departamento de Defensa designará a los seres humanos como riesgo en la cadena de suministro

Musk criticó a OpenAI en su declaración y dijo: «Nadie se suicidó por culpa de Grok».

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.