Por primera vez, Washington está cerca de decidir cómo regular la inteligencia artificial. Y la batalla que se avecina no tiene que ver con la tecnología, sino con quién la regulará.
En ausencia de estándares federales significativos de IA centrados en la seguridad del consumidor, los estados han presentado docenas de proyectos de ley para proteger a sus poblaciones de los daños relacionados con la IA, incluido el Proyecto de Ley de Seguridad de la IA SB-53 de California y la Ley de Gobernanza Responsable de la IA de Texas, que prohíbe el uso indebido intencional de los sistemas de IA.
Los grandes gigantes tecnológicos y las nuevas empresas emergentes de Silicon Valley dicen que las leyes crean un mosaico inviable que amenaza la innovación.
«Esto nos ralentizará en la competencia con China», dijo a TechCrunch Josh Vlasto, cofundador de pro-AI PAC Leading the Future.
La industria y algunos trasplantados en la Casa Blanca están presionando para que se adopten normas nacionales o nada en absoluto. En la primera línea de esa batalla de todo o nada, están surgiendo nuevos esfuerzos para prohibir a los estados promulgar su propia legislación sobre IA.
Según se informa, los miembros de la Cámara están intentando utilizar la Ley de Autorización de Defensa Nacional (NDAA) para bloquear las leyes estatales sobre IA. Al mismo tiempo, un borrador de orden ejecutiva de la Casa Blanca filtrado muestra un fuerte apoyo a adelantarse a los esfuerzos nacionales para regular la IA.
Las medidas preventivas amplias que despojarían a los estados de su derecho a regular la IA son impopulares en el Congreso, que votó abrumadoramente en contra de una moratoria similar a principios de este año. Los legisladores argumentan que sin estándares federales vigentes, los bloqueos estatales pondrían en riesgo a los consumidores y permitirían a las empresas de tecnología operar libremente sin supervisión.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
Para crear ese estándar nacional, el representante Ted Lieu (D-CA) y el grupo de trabajo bipartidista sobre IA de la Cámara de Representantes están preparando una serie de proyectos de ley federales sobre IA que cubren una amplia gama de protecciones al consumidor, incluido el fraude, la atención médica, la transparencia, la seguridad infantil y el riesgo catastrófico. Es probable que un proyecto de ley tan enorme tarde meses, si no años, en aprobarse, lo que pone de relieve por qué la actual prisa por limitar el poder estatal es una de las batallas más polémicas en la política de IA.
Frentes: NDAA y EO

En las últimas semanas se han intensificado los esfuerzos para impedir que los estados regulen la IA.
La Cámara está considerando agregar texto a la NDAA que impediría que los estados regulen la IA, dijo el líder de la mayoría Steve Scalise (R-Luisiana) a Punchbowl News. Politico informó que el Congreso está trabajando para finalizar un acuerdo sobre un proyecto de ley de defensa para el Día de Acción de Gracias. Personas familiarizadas con el asunto dijeron a TechCrunch que las negociaciones se centran en reducir el alcance para preservar potencialmente la autoridad estatal en áreas como la seguridad infantil y la transparencia.
Mientras tanto, un borrador de EO filtrado de la Casa Blanca revela la posible estrategia preventiva de la propia administración. La EO, que supuestamente está en suspenso, crearía un «Grupo de Trabajo de Litigios sobre IA» para desafiar las leyes estatales de IA en los tribunales, ordenaría a las agencias que evalúen las leyes estatales que consideren «adversas» y alentaría a la Comisión Federal de Comunicaciones y a la Comisión Federal de Comercio a buscar estándares nacionales para anular las reglas estatales.
Específicamente, la EO le daría a David Sachs, el zar de la inteligencia artificial y las criptomonedas del presidente Trump y cofundador de la firma de capital de riesgo Craft Ventures, co-liderazgo en la creación de un marco legal uniforme. Esto le dará a Sacks influencia directa sobre la política de IA, reemplazando el papel típico de la Oficina de Política Científica y Tecnológica de la Casa Blanca y su director, Michael Kratsios.
Sachs ha abogado públicamente por la autorregulación de la industria, bloqueando la regulación estatal y restando importancia a la supervisión federal para «maximizar el crecimiento».
discusión de mosaico
La posición de Sachs refleja muchas perspectivas en la industria de la IA. En los últimos meses han surgido varios súper PAC pro-IA, que han gastado cientos de millones de dólares en elecciones locales y estatales contra candidatos que apoyan la regulación de la IA.
Leading the Future, respaldado por Andreessen Horowitz, el presidente de OpenAI, Greg Brockman, y el cofundador de Perplexity y Palantir, Joe Lonsdale, ha recaudado más de 100 millones de dólares. Esta semana, Leading the Future lanzó una campaña de 10 millones de dólares instando al Congreso a crear una política nacional de IA que anularía las leyes estatales.
«Cuando intentas impulsar la innovación en tecnología, no quieres que muchas de estas leyes sean introducidas por personas que no necesariamente tienen la experiencia técnica», dijo Vlast a TechCrunch.
Sostuvo que un mosaico de regulaciones nacionales «nos deja atrás en la competencia con China».
Nathan Riemer, director ejecutivo de Build American AI, el brazo de defensa del PAC, reconoció que el grupo apoya la preferencia, que carece de protecciones federales al consumidor específicas de AI. Riemer argumentó que las leyes existentes, como las que se ocupan del fraude y la responsabilidad de los productos, son suficientes para abordar el daño causado por la IA. Si bien las leyes estatales a menudo intentan prevenir los problemas antes de que ocurran, Riemer favorece un enfoque más reactivo que obligue a las empresas a actuar rápidamente y abordar los problemas en los tribunales más adelante.
No hay preferencia sin representación

Alex Boaz, representante del estado de Nueva York que se postula para el Congreso, es uno de los primeros objetivos de Leading the Future. Patrocinó la Ley RAISE, que exigiría que los grandes laboratorios de IA contaran con planes de seguridad para evitar daños graves.
«Creo en el poder de la IA y por eso es tan importante tener una regulación razonable», dijo Bores a TechCrunch. “En última instancia, la IA que gane en el mercado será aquella en la que se pueda confiar y, en muchos casos, el mercado infravalorará o ofrecerá bajos incentivos a corto plazo para invertir en seguridad”.
Boas apoya una política nacional de IA, pero sostiene que los países pueden responder más rápidamente a los riesgos emergentes.
Y es cierto que los estados se mueven rápidamente.
En noviembre de 2025, 38 estados habían aprobado más de 100 leyes relacionadas con la IA este año, principalmente dirigidas a deepfakes, transparencia y divulgación, y al uso gubernamental de la IA. (Un estudio reciente encontró que el 69% de estas leyes no imponen ningún requisito a los desarrolladores de IA).
La actividad en el Congreso proporciona más evidencia para el argumento de que la actividad es más lenta que en los estados. Se han presentado cientos de proyectos de ley sobre IA, pero pocos han sido aprobados. Desde 2015, el representante Liu ha presentado 67 proyectos de ley al Comité Científico de la Cámara de Representantes. Sólo uno se convirtió en ley.
Más de 200 miembros del Congreso firmaron una carta abierta oponiéndose a la preferencia de la NDAA, argumentando que el estado debe «servir como laboratorio para la democracia» y «conservar la flexibilidad para enfrentar nuevos desafíos digitales a medida que surjan». Casi 40 fiscales generales estatales también enviaron una carta abierta oponiéndose a las prohibiciones estatales de la regulación de la IA.
El experto en ciberseguridad Bruce Schneier y el científico de datos Nathan E. Sanders, autores de Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship, sostienen que las afirmaciones fragmentadas son exageradas.
Señalan que las empresas de IA ya están cumpliendo con regulaciones más estrictas de la UE y la mayoría de las industrias han encontrado formas de operar bajo diversas leyes estatales. Dicen que el verdadero motivo es eludir la responsabilidad.
¿Cuáles son los estándares federales?
Liu ha redactado un megaproyecto de ley de más de 200 páginas que espera presentar en diciembre. Cubre una variedad de temas, incluidas sanciones por fraude, protecciones contra deepfake, protecciones para denunciantes, recursos informáticos para el mundo académico y requisitos de prueba y divulgación para grandes empresas de modelado lingüístico.
La disposición final exige que los laboratorios de IA prueben sus modelos y publiquen sus resultados, lo que actualmente la mayoría hace de forma voluntaria. Liu, que aún no ha presentado el proyecto de ley, dijo que el proyecto de ley no ordenaría a las agencias federales que revisen directamente los modelos de IA. Esto difiere de proyectos de ley similares presentados por los senadores Josh Hawley (R-Mississippi) y Richard Blumenthal (D-CN), que requerirían un programa de evaluación administrado por el gobierno antes de implementar sistemas avanzados de IA.
Liu reconoció que su proyecto de ley no es muy estricto, pero dijo que tiene buenas posibilidades de convertirse en ley.
“Mi objetivo es convertir algo en ley esta legislatura”, dijo Lew, señalando que el líder de la minoría de la Cámara de Representantes, Scalise, se ha mostrado abiertamente hostil a la regulación de la IA. «No estoy escribiendo un proyecto de ley que presentaría si fuera rey. Estoy tratando de escribir un proyecto de ley que pueda ser aprobado por una Cámara controlada por los republicanos, un Senado controlado por los republicanos y una Casa Blanca controlada por los republicanos».
Source link
