Una coalición de organizaciones sin fines de lucro está pidiendo al gobierno de Estados Unidos que detenga inmediatamente el despliegue de Grok, un chatbot desarrollado por xAI de Elon Musk, en agencias federales, incluido el Departamento de Defensa.
La carta abierta, compartida exclusivamente con TechCrunch, rastrea una serie de comportamientos preocupantes por parte de modelos de lenguaje a gran escala durante el año pasado, incluida una tendencia reciente de usuarios de X que le piden a Grok que convierta fotos de mujeres reales y, en algunos casos, niños en imágenes sexualizadas sin su consentimiento. Según algunos informes, Grok generó miles de imágenes explícitas y no consensuadas cada hora, que fueron ampliamente distribuidas en la plataforma de redes sociales X de Musk, propiedad de xAI.
La carta, firmada por grupos de defensa como Public Citizen, el Centro de IA y Política Digital y la Federación de Consumidores de Estados Unidos, decía: «Estamos profundamente preocupados de que el gobierno federal continúe implementando productos de IA que están plagados de fallas a nivel de sistema y que conducen a la producción de imágenes sexuales no consensuadas y material de abuso sexual infantil». «Dadas las órdenes ejecutivas y la orientación de la administración, y la recientemente aprobada Ley Take It Down con el apoyo de la Casa Blanca, es preocupante que la[Oficina de Gestión y Presupuesto]aún no haya ordenado a las agencias federales que eliminen progresivamente Grok».
En septiembre pasado, xAI llegó a un acuerdo con el brazo de compras del gobierno, la Administración de Servicios Generales (GSA), para vender Grok a una agencia federal dependiente del poder ejecutivo. Hace dos meses, xAI firmó un contrato por valor de hasta 200 millones de dólares con el Departamento de Defensa, junto con Anthropic, Google y OpenAI.
A mediados de enero, en medio del escándalo X, el secretario de Defensa, Pete Hegseth, dijo que Gloch trabajaría con Gemini de Google dentro de las redes del Pentágono, manejando documentos clasificados y no clasificados, lo que, según los expertos, es un riesgo para la seguridad nacional.
Los autores de la carta afirman que Grok ha demostrado ser incompatible con los requisitos gubernamentales para los sistemas de inteligencia artificial. Según las directrices de la OMB, se deben suspender los sistemas que plantean riesgos significativos y previsibles que no pueden mitigarse adecuadamente.
«Nuestra principal preocupación es que se ha demostrado de manera bastante consistente que Grok es un modelo de lenguaje inseguro a gran escala», dijo a TechCrunch JB Branch, defensor de la responsabilidad en Public Citizen Big Tech y uno de los autores de la carta. «Sin embargo, Grok también tiene un profundo historial de problemas, que incluyen diatribas antisemitas, diatribas sexistas e imágenes sexuales de mujeres y niños».
evento de crisis tecnológica
bostón, massachusetts
|
23 de junio de 2026
Varios gobiernos han mostrado renuencia a colaborar con Grok tras sus acciones en enero. Grok se basa en una serie de incidentes en X, que incluyen generar publicaciones antisemitas y llamarse a sí mismo «Mecha-Hitler». Indonesia, Malasia y Filipinas bloquearon el acceso a Grok (y luego levantaron sus prohibiciones), y la Unión Europea, el Reino Unido, Corea del Sur y la India están investigando activamente a xAI y X por privacidad de datos y distribución de contenido ilegal.
La carta también llega una semana después de que Common Sense Media, una organización sin fines de lucro que revisa los medios y la tecnología para familias, publicara una evaluación de riesgos condenatoria que encontró que Grok es uno de los más peligrosos para los niños y adolescentes. Con base en los hallazgos del informe, incluida la propensión de Grok a ofrecer consejos peligrosos, compartir información sobre drogas, generar imágenes violentas y sexuales, soltar teorías de conspiración y producir resultados sesgados, algunos podrían argumentar que Grok tampoco es tan seguro para los adultos.
«Si sabemos que los expertos en seguridad de IA han declarado que los modelos de lenguaje a gran escala son inseguros o seguros, ¿por qué deberíamos trabajar con los datos más confidenciales que tenemos?» dijo Rama. «Desde una perspectiva de seguridad nacional, simplemente no tiene sentido».
Andrew Christianson, excontratista de la Agencia de Seguridad Nacional y actual fundador de Gobbi AI, una plataforma de agentes de IA sin código para entornos clasificados, dice que el uso de LLM de código cerrado es problemático en general y para el Departamento de Defensa en particular.
«Las ponderaciones cerradas significan que no se puede ver el interior del modelo y no se puede auditar cómo el modelo toma decisiones», dijo. «El código cerrado significa que no se puede inspeccionar el software ni controlar dónde se ejecuta. El Departamento de Defensa está tratando de cerrarse a ambos, lo cual es una combinación terrible para la seguridad nacional».
«Estos agentes de IA son más que simples chatbots», añadió Christianson. «Pueden tomar acciones, acceder a sistemas y mover información. Necesitan poder ver exactamente lo que están haciendo y cómo toman decisiones. El código abierto proporciona eso. La IA patentada en la nube, no».
Los riesgos de utilizar sistemas de IA defectuosos o inseguros se extienden más allá de los casos de uso de seguridad nacional. Branch señaló que los LLM, que se ha descubierto que tienen resultados desproporcionados y discriminatorios, también pueden tener consecuencias desproporcionadamente negativas para las personas, particularmente cuando se utilizan en sectores relacionados con la vivienda, el trabajo y la justicia.
La OMB aún no ha publicado un inventario consolidado de casos de uso de IA a nivel federal para 2025, pero TechCrunch revisó varios casos de uso de agencias. La mayoría de ellos no utilizan Grok o no revelan su uso de Grok. Además del Departamento de Defensa, el Departamento de Salud y Servicios Humanos también parece estar utilizando activamente Grok, principalmente para programar y gestionar publicaciones en redes sociales y crear primeros borradores de documentos, instrucciones y otros materiales de comunicación.
Branch citó la alineación filosófica entre Grok y la administración como una de las razones por las que se pasan por alto las deficiencias de los chatbots.
«La marca Grok es el ‘modelo de gran lenguaje anti-despertar’, y esa es la filosofía de esta administración», dijo Branch. «Si tienes una administración que tiene múltiples problemas con personas acusadas de neonazis o supremacistas blancos, y tienes un modelo de lenguaje extenso vinculado a ese tipo de comportamiento, imagino que podrían estar más inclinados a usar eso».
Esta es la tercera carta que escribe la Coalición después de plantear preocupaciones similares en agosto y octubre del año pasado. En agosto, xAI lanzó un “modo picante” en Grok Imagine, lo que llevó a la creación masiva de deepfakes sexualmente explícitos y no consensuados. TechCrunch también informó en agosto que las conversaciones privadas de Grok estaban siendo indexadas en la Búsqueda de Google.
Antes de la carta de octubre, Groch fue acusado de proporcionar información falsa sobre las elecciones, incluidos plazos falsos para cambiar las boletas y falsificaciones políticas. xAI también lanzó Grokipedia, que los investigadores descubrieron que legitima el racismo científico, el escepticismo sobre el VIH/SIDA y las conspiraciones sobre vacunas.
Además de detener inmediatamente el despliegue de Grok por parte del gobierno federal, la carta también pide a la OMB que investigue formalmente las fallas de seguridad de Grok y si se implementaron procesos de supervisión adecuados para el chatbot. También requiere que la agencia aclare públicamente si se ha evaluado que Grok cumple con la orden ejecutiva del presidente Trump que exige que los LLM busquen la verdad y sean neutrales, y si cumple con los estándares de mitigación de riesgos de la OMB.
«La administración necesita hacer una pausa y reevaluar si Grok cumple con estos estándares», dijo Branch.
TechCrunch se ha puesto en contacto con xAI y OMB para solicitar comentarios.
Source link
