En el corazón de cada imperio está la ideología, un sistema de creencias que avanza la ideología y justifica la expansión.
Para los poderes coloniales europeos, era el cristianismo, una promesa de salvar el alma mientras extraía recursos. Para el Imperio de IA de hoy, es información general artificial «beneficiar a toda la humanidad». Y OpenAi es su principal evangelista, que difunde el entusiasmo en toda la industria con una forma de remodelación de construir IA.
«Estábamos entrevistando a personas cuyas voces estaban temblando debido a su entusiasmo por su creencia en AGI», dijo la periodista Karen Hao, autora más vendida de «Empire AI», dijo a TechCrunch sobre un episodio reciente de Equity.
En su libro, Hao compara la industria de la IA en general, y OpenAi en particular con el Imperio.
«La única forma de comprender realmente el alcance y la escala de las acciones de OpenAi es reconocer que en realidad ya se ha fortalecido que casi todas las naciones del mundo, consolidando una cantidad extraordinaria de poder político y poder económico», dijo Hao. «Están terraformando la tierra. Están volviendo a cablear nuestra geopolítica, todo en nuestras vidas. Y solo puedes describirlo como un imperio».
Operai describió a AGI como «un sistema muy autónomo que supera a los humanos en la tarea más valiosa económicamente». Esto explica: «Mejoraremos la humanidad al mejorar la humanidad al apoyar el descubrimiento de un nuevo conocimiento científico que cambiará los límites de las posibilidades».
Estas promesas ambiguas han impulsado el crecimiento exponencial de la industria: la demanda de sus recursos masivos, los océanos de los datos desechados, las redes de energía tensas y la voluntad de desbloquear el mundo para liberar sus sistemas no probados. Muchos expertos cumplen un futuro en el que no lleguen.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Hao dice que este pase es inevitable y que la escala no es la única forma de progresar más con la IA.
«También podemos desarrollar nuevas tecnologías con algoritmos», dijo. «Podemos mejorar los algoritmos existentes para reducir la cantidad de datos y calcular los datos que deben usarse».
Pero esa táctica habría significado la velocidad de sacrificio.
«Al definir la búsqueda de la victoria para desarrollar AGI útiles como algo que quita todo, eso es lo que hizo Openrai, y lo más importante, acelera más que cualquier otra cosa», dijo Hao. «Velocidad preeficiente, velocidad de seguridad, velocidad de investigación exploratoria».

Para OpenAI, la mejor manera de garantizar la velocidad es tomar las técnicas existentes y «hacer algo de manera inteligente, enviando más datos, más supercomputadoras a las técnicas existentes», dijo.
Operai preparó el escenario y, en lugar de quedarse atrás, decidió alinearse con otras compañías de alta tecnología.
«Y como la industria de la IA ha adquirido con éxito la mayoría de los principales investigadores de IA del mundo y estos investigadores ya no existen en la academia, todo el campo está formado por la agenda de estas compañías en lugar de una exploración científica real», dijo Hao.
Los gastos son astronómicos y lo serán. La semana pasada, Operai dijo que espera quemar $ 115 mil millones en efectivo para 2029. Meta dijo en julio que se gastarán hasta $ 72 mil millones en la construcción de la infraestructura de IA de este año. Google espera alcanzar los gastos de capital de hasta $ 85 mil millones en 2025, la mayoría de los cuales se gastarán expandiendo la IA y la infraestructura en la nube.
Mientras tanto, el poste de la portería continúa moviéndose, e incluso con el creciente número de daños, el más «bueno para la humanidad» aún no se ha realizado. Los daños como el desempleo, la concentración de riqueza y la IA son chatbots que alimentan los delirios y las enfermedades mentales. En su libro, Hao también documentó a los trabajadores en países en desarrollo como Kenia y Venezuela, expuesto a contenido inquietante, incluido el material de abuso sexual infantil, y se les pagó salarios muy bajos (aproximadamente $ 1-2 por hora) en roles como moderación de contenido y etiquetado de datos.
Hao dijo que es una compensación falsa para el avance de AI por el daño actual, especialmente cuando otras formas de IA provocan beneficios reales.
Señaló el pliegue alfa ganador del Premio Nobel en Google Deep Mind. Se ha entrenado en datos de secuencia de aminoácidos y estructuras de plegamiento de proteínas complejas, lo que permite una predicción precisa de las estructuras de proteínas 3D de los aminoácidos.
«Estos son los tipos de sistemas de IA que necesitamos», dijo Hao. «Alfafold no causa crisis de salud mental para las personas. Alfafold no conduce a enormes daños ambientales, porque está entrenado con una cantidad bastante pequeña de infraestructura. No hay daño en la moderación de contenido.
Junto con un compromiso cuasirreligioso con AGI, es una historia sobre la importancia de las carreras para vencer a China en las carreras de IA, permitiendo que Silicon Valley tenga un efecto de liberalización en el mundo.
«Lo contrario sucedió literalmente», dijo Hao. «La brecha continúa siendo cerrada entre Estados Unidos y China, y Silicon Valley ha tenido un efecto no autónomo en el mundo.
Por supuesto, muchas personas argumentan que OpenAi y otras compañías de IA están beneficiando a la humanidad al lanzar ChatGPT y otros modelos de idiomas a gran escala. Esto promete grandes beneficios de productividad al automatizar tareas como codificación, escritura, investigación, atención al cliente y otras tareas de trabajo de conocimiento.
Pero la forma en que se estructura opadai está estructurada: algunas son organizaciones sin fines de lucro, y algunas con fines de lucro complican cómo definen y miden su impacto en la humanidad. Y eso se ha vuelto aún más complicado con las noticias de esta semana, con Operai llegando a un acuerdo con Microsoft, que finalmente se hizo pública.
Dos ex investigadores de seguridad de Operai dijeron a TechCrunch que temían que AI Labs hubiera comenzado a confundir organizaciones con fines de lucro y misiones sin fines de lucro.
Hao reflejó estas preocupaciones y explicó los peligros de ser tan consumidos por la misión de que la realidad se ignora.
«Aunque hay acumulación de evidencia de que lo que están construyendo realmente está perjudicando a una buena cantidad de personas, la misión mantiene todo eso en papel», dijo Hao. «Es realmente peligroso y sombrío al respecto. Puedes estar rodeado por el sistema de creencias que has creado y perder el contacto con la realidad».
Source link
