La ruptura del gobierno de Estados Unidos con Anthropic reveló que no existen reglas consistentes que gobiernen la inteligencia artificial, pero una coalición bipartidista de pensadores ha reunido algo que el gobierno se ha negado hasta ahora a crear: un marco para cómo debería ser realmente el desarrollo responsable de la IA.
Aunque la declaración prohumana se finalizó antes del enfrentamiento de la semana pasada entre el Pentágono y la humanidad, todos los involucrados no olvidaron la colisión de los dos eventos.
«Algo muy notable ha sucedido en Estados Unidos durante los últimos cuatro meses», dijo en una conversación con los editores Max Tegmark, físico del MIT e investigador de inteligencia artificial que ayudó a organizar el esfuerzo. «De repente, las encuestas revelan que el 95% de todos los estadounidenses se oponen a la competencia no regulada a la superinteligencia.»
Un documento recién publicado y firmado por cientos de expertos, ex funcionarios gubernamentales y celebridades comienza con la contundente observación de que la humanidad se encuentra en una encrucijada. Un camino, que la Declaración llama «competencia de sustitución», conduce a la sustitución de los seres humanos primero como trabajadores y luego como tomadores de decisiones, a medida que el poder se acumula en organizaciones que no rinden cuentas y sus máquinas. El otro conducirá a la IA que ampliará enormemente el potencial humano.
Este último escenario se basa en cinco pilares clave: responsabilizar a los humanos, evitar la concentración de poder, proteger la experiencia humana, proteger la libertad individual y responsabilizar legalmente a las empresas de IA. Entre sus disposiciones más estrictas se encuentra una prohibición total del desarrollo de superinteligencia hasta que haya un consenso científico de que es segura y capaz de lograr una aceptación democrática genuina. Los sistemas potentes requieren un interruptor de apagado. y una prohibición de arquitecturas capaces de autorreplicación, superación autónoma o tolerancia al cierre.
La publicación de esta declaración coincide con un momento en el que se comprende más fácilmente su urgencia. El último viernes de febrero, el Secretario de Defensa, Pete Hegseth, designó a Anthropic, cuya IA ya se ejecuta en plataformas militares clasificadas, como un «riesgo para la cadena de suministro». La empresa denegó al Pentágono el permiso para utilizar la tecnología sin restricciones, que normalmente se concede a empresas con vínculos con China. Horas más tarde, OpenAI rescindió su propio acuerdo con el Departamento de Defensa, que según los expertos legales será difícil de hacer cumplir de manera significativa. Esto revela cuán costosa se ha vuelto la inacción del Congreso en materia de IA.
Dean Ball, miembro de la Fundación Estadounidense para la Innovación, dijo más tarde al New York Times: «Esto no es sólo una pelea por un contrato. Esta es la primera conversación que hemos tenido como nación sobre la gestión de nuestros sistemas de IA».
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
A Tegmark se le ocurrió una analogía que la mayoría de la gente entendió cuando hablamos de ella. «No tenemos que preocuparnos de que alguna compañía farmacéutica presente otro medicamento que cause un daño tremendo antes de que la gente descubra cómo hacerlo seguro, porque la FDA no permitirá que salga nada hasta que sea lo suficientemente seguro», dijo.
Las guerras territoriales en Washington rara vez generan suficiente presión pública para cambiar la ley. Más bien, Tegmark cree que la seguridad infantil es la solución más probable al estancamiento actual. De hecho, la declaración exige pruebas obligatorias previas al despliegue de los productos de IA, especialmente los chatbots y las aplicaciones complementarias dirigidas a usuarios más jóvenes, para cubrir riesgos como el aumento de las ideas suicidas, la mala salud mental y la manipulación emocional.
«Si un anciano espeluznante se hace pasar por una niña y envía un correo electrónico a un niño de 11 años tratando de convencerlo de que se suicide, podría ser enviado a prisión por eso», dijo Tegmark. «Ya tenemos leyes. Es ilegal. Entonces, ¿por qué sería diferente si lo hiciera una máquina?»
Él cree que una vez que se establezcan los principios de las pruebas previas al lanzamiento de productos para niños, su alcance se ampliará casi inevitablemente. «La gente vendrá y dirá, agreguemos algunos otros requisitos. Quizás también deberíamos probar que esto no contribuye a la producción terrorista de armas biológicas. Quizás deberíamos probar para asegurarnos de que las agencias de superinteligencia no tengan la capacidad de derrocar al gobierno de Estados Unidos».
No es poca cosa que el ex asesor del presidente Trump, Steve Bannon, y la asesora de seguridad nacional del presidente Obama, Susan Rice, firmaran el mismo documento, junto con el ex presidente del Estado Mayor Conjunto, Mike Mullen, y líderes religiosos progresistas.
«En lo que están de acuerdo, por supuesto, es en que todos son humanos», dice Tegmark. «Cuando se trata de si quieres un futuro humano o un futuro de máquinas, por supuesto que estarán del mismo lado».
Source link
