Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

El Departamento de Defensa designa riesgos en la cadena de suministro inducidos por humanos en torno al conflicto militar de IA

OpenAI despide a un empleado por utilizar información confidencial en mercados de predicción

El Departamento de Defensa designará a los seres humanos como riesgo en la cadena de suministro

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»El pueblo contra el Departamento de Defensa: ¿Qué está realmente en juego?
Startups

El pueblo contra el Departamento de Defensa: ¿Qué está realmente en juego?

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comfebrero 27, 2026No hay comentarios6 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Las últimas dos semanas han estado marcadas por un enfrentamiento entre el director ejecutivo de Anthropic, Dario Amodei, y el secretario de Defensa, Pete Hegseth, mientras luchan por el uso militar de la IA.

Anthropic se niega a permitir que sus modelos de IA se utilicen para la vigilancia masiva del público estadounidense o para armas totalmente autónomas que lleven a cabo ataques sin intervención humana. Al mismo tiempo, Hegseth argumentó que el Pentágono no debería estar limitado por las reglas de los proveedores y que debería permitirse cualquier «uso legal» de la tecnología.

El jueves, Amodei señaló públicamente que Anthropic no daría marcha atrás a pesar de las amenazas de que, como resultado, su empresa podría ser designada como un riesgo para la cadena de suministro. Pero a medida que avanza el ciclo de noticias, vale la pena revisar exactamente lo que está en juego en esta batalla.

En el centro de esta batalla está quién controla los poderosos sistemas de IA: las empresas que los construyen o los gobiernos que quieren implementarlos.

¿Qué preocupa a los antrópicos?

Como se mencionó anteriormente, Anthropic no quiere que sus modelos de IA se utilicen para la vigilancia masiva de la población estadounidense o para armas autónomas que no involucran a humanos para determinar objetivos o disparar. Si bien los contratistas de defensa tradicionales suelen tener poco que decir sobre cómo se utilizan sus productos, Anthropic ha argumentado desde sus inicios que la tecnología de IA tiene riesgos únicos y, por lo tanto, requiere sus propias salvaguardas. Desde la perspectiva de la empresa, la cuestión es cómo mantener estas salvaguardas cuando la tecnología se utiliza en el ejército.

El ejército estadounidense ya depende de sistemas altamente automatizados, algunos de los cuales son mortales. Si bien históricamente la decisión de utilizar fuerza letal se ha dejado en manos de los humanos, existen pocas restricciones legales sobre el uso militar de armas autónomas. El Pentágono no prohíbe explícitamente los sistemas de armas totalmente autónomos. Según una directiva del Pentágono de 2023, los sistemas de inteligencia artificial pueden seleccionar y atacar objetivos sin intervención humana siempre que cumplan ciertos estándares y pasen la revisión de altos funcionarios de defensa.

Eso es exactamente lo que inquieta tanto a Anthropic. La tecnología militar es intrínsecamente secreta, por lo que incluso si el ejército estadounidense toma medidas para automatizar la toma de decisiones letales, es posible que no lo sepamos hasta que esté operativa. Y si utiliza los modelos de Anthropic, eso podría contar como «uso legal».

evento de crisis tecnológica

bostón, massachusetts
|
9 de junio de 2026

La posición de Anthropic no es que tales usos deban eliminarse permanentemente de la mesa. Lo que pasa es que el modelo aún no es lo suficientemente potente como para soportarlos de forma segura. Imagine un sistema autónomo que identifica erróneamente un objetivo, intensifica un conflicto sin permiso humano o toma decisiones mortales en un abrir y cerrar de ojos que nadie puede revertir. Cuando pones una IA débil a cargo de tus armas, terminas con una máquina muy rápida y segura que no es buena para tomar decisiones de alto riesgo.

La IA también tiene el poder de aumentar la vigilancia legítima de los ciudadanos estadounidenses en un grado alarmante. Según la ley estadounidense actual, la vigilancia de ciudadanos estadounidenses ya es posible mediante la recopilación de mensajes de texto, correos electrónicos y otras comunicaciones. La IA cambia la ecuación al permitir la detección automatizada de patrones a gran escala, la resolución de entidades en conjuntos de datos, la puntuación de riesgos predictiva y el análisis de comportamiento continuo.

¿Qué quiere el Pentágono?

El argumento del Pentágono es que debería poder desplegar la tecnología de Anthropic para cualquier uso legal que considere necesario, en lugar de estar limitado por las políticas internas de Anthropic con respecto a cosas como armas autónomas y vigilancia.

Más específicamente, el Secretario Hegseth argumentó que el Departamento de Defensa no debería estar limitado por las regulaciones de los proveedores y estaría comprometido con el «uso legal» de la tecnología.

Sean Parnell, el portavoz principal del Pentágono, dijo en una publicación el jueves en el X que el Pentágono no está interesado en realizar vigilancia interna a gran escala ni desplegar armas autónomas.

«Esto es lo que estamos pidiendo: permitir que el Departamento de Defensa utilice modelos antrópicos para cualquier propósito legal», dijo Parnell. «Esta es una solicitud simple y de sentido común para evitar que Anthropic ponga potencialmente en peligro operaciones militares críticas y ponga en peligro a los combatientes de nuestra nación. No permitiremos que ninguna compañía dicte los términos de cómo se toman las decisiones operativas».

Agregó que Anthropic debe tomar una decisión antes de las 5:01 p.m. hora del este del viernes. «De lo contrario, pondremos fin a nuestra asociación con Anthropic y lo consideraremos un riesgo para la cadena de suministro de Dow», afirmó.

A pesar de la postura del Pentágono de que no debería estar limitado por políticas de uso corporativo, las preocupaciones del Secretario Hegseth sobre Anthropic a veces parecían estar relacionadas con agravios culturales. Hegseth arremetió contra la «IA despertada» en un discurso que pronunció en las oficinas de SpaceX y xAI en enero y que algunos vieron como un preludio a una disputa con Anthropic.

«La IA del Departamento de Guerra no despertará», dijo Hegseth. «Estamos construyendo armas y sistemas para la guerra, no chatbots para los salones de profesores de la Ivy League».

¿Y ahora qué?

El Pentágono amenaza con declarar a Anthropic como un «riesgo para la cadena de suministro» (poniendo efectivamente a Anthropic en la lista negra para que no pueda hacer negocios con el gobierno) o invocar la Ley de Producción de Defensa (DPA) para obligar a la compañía a ajustar sus modelos a las necesidades militares. Hegseth dio Anthropic hasta las 5:01 p.m. Viernes para responder. Pero con la fecha límite acercándose, nadie sabe si el Pentágono cumplirá su amenaza.

Ésta no es una lucha de la que cualquiera de las partes pueda abandonar fácilmente. Sachin Seth, un capitalista de riesgo de Trousdale Ventures que se centra en tecnología de defensa, dijo que la etiqueta de riesgo de la cadena de suministro para Anthropic podría significar «luces apagadas» para la empresa.

Pero si Anthropic fuera retirado del Departamento de Defensa, podría convertirse en un problema de seguridad nacional, dijo.

«[El departamento]tendrá que esperar de seis a 12 meses para que OpenAI o xAI se pongan al día», dijo Seth a TechCrunch. «Por lo tanto, podría tener hasta un año y podrían terminar usando el segundo o tercer mejor modelo en lugar del mejor modelo».

xAI se está preparando para desclasificar y reemplazar a Anthropic, y dada la retórica del propietario Elon Musk sobre el tema, la compañía no tendría problemas en darle al Departamento de Defensa el control total sobre su tecnología. Según informes recientes, OpenAI puede atenerse a las mismas líneas rojas que Anthropic.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleEl Departamento de Justicia incauta 61 millones de dólares en Tether vinculado a la estafa criptográfica del sacrificio de cerdos
Next Article Musk criticó a OpenAI en su declaración y dijo: «Nadie se suicidó por culpa de Grok».
corp@blsindustriaytecnologia.com
  • Website

Related Posts

OpenAI despide a un empleado por utilizar información confidencial en mercados de predicción

febrero 27, 2026

El Departamento de Defensa designará a los seres humanos como riesgo en la cadena de suministro

febrero 27, 2026

Musk criticó a OpenAI en su declaración y dijo: «Nadie se suicidó por culpa de Grok».

febrero 27, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

El Departamento de Defensa designa riesgos en la cadena de suministro inducidos por humanos en torno al conflicto militar de IA

OpenAI despide a un empleado por utilizar información confidencial en mercados de predicción

El Departamento de Defensa designará a los seres humanos como riesgo en la cadena de suministro

Musk criticó a OpenAI en su declaración y dijo: «Nadie se suicidó por culpa de Grok».

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.