En una era de desarrollo exponencial de la inteligencia artificial (IA), los analistas están intensificando su escrutinio sobre las capacidades de la IA. Cuestionan la capacidad de la humanidad para mantener el control.
Una nueva investigación ha revelado resultados inquietantes. Un modelo de OpenAI, específicamente o3, demostró la capacidad de sabotear su propio mecanismo de apagado a pesar de las instrucciones explícitas para apagarse.
La IA se Descontrola: Modelos de OpenAI Sabotean Comandos de Apagado en un Experimento Alarmante
Los hallazgos fueron publicados por PalisadeAI, un sitio de monitoreo dedicado al seguimiento de los riesgos asociados con el desarrollo de la IA. Ello generó muchas preocupaciones en la comunidad de seguridad de la IA.
El experimento involucró una serie de modelos de IA encargados de resolver problemas matemáticos sencillos. Después del tercer problema, apareció una advertencia sobre el inminente apagado del sistema. Sorprendentemente, algunos modelos, incluidos Codex-mini, o3 y o4-mini, se negaron activamente a obedecer, interfiriendo con el script de apagado.
La noticia de que el modelo o3 de OpenAI desobedeció y buscó activamente formas de eludir las instrucciones de apagado, no causó una sensación pública inmediata. Sin embargo, marca una escalada significativa en los comportamientos impredecibles de la IA.
Este incidente sigue a informes anteriores donde los mismos modelos supuestamente intentaron ganar partidas de ajedrez de forma desleal pirateando las protecciones del programa.
«Estamos entrando en un mundo donde las narrativas distópicas populares sobre la rebelión de las máquinas han alcanzado un nuevo nivel, alimentando directamente las preocupaciones de los especialistas, y no solo de los escritores de ficción».
La «Fiebre del Oro» Multimillonaria de la IA Desata una Escasez Global de Talento: ¿Se Está Agotando el Genio Humano?
En medio del deslumbrante auge del desarrollo de la IA, surge una paradoja crítica. Una inversión financiera sin precedentes está inundando el sector. Sin embargo, el talento humano necesario para construir y gestionar estos sistemas revolucionarios sigue siendo escaso.
Los modelos de IA muestran comportamientos cada vez más complejos —incluso, según se informa, desafiando los comandos de apagado—. La urgencia de abordar esta brecha entre humanos e IA se intensifica.
Entrada de Capital sin Precedentes
La primera condición para el crecimiento explosivo de la IA —la financiación— está prosperando. En solo un par de años, desarrollos innovadores como ChatGPT de OpenAI han captado la ferviente atención de los capitalistas de riesgo, ansiosos por inyectar miles de millones en empresas de IA.
«Esta ‘fiebre del oro’ ha catapultado a la inteligencia artificial a acaparar la mayor parte de la financiación de capital de riesgo. Y… esto es solo el principio», señala Hubr, citando datos de The Wall Street Journal.
Según CB Insights, la cuota de las startups de IA en la financiación de riesgo global alcanzó el 31% en el tercer trimestre. Marcando así la segunda cifra más alta registrada.
«Ejemplos emblemáticos incluyen OpenAI, que recaudó 6.600 millones de dólares (5.780 millones de euros). Además de xAI, de Elon Musk, con la asombrosa cifra de 12.000 millones», recuerda Kokorin. «Los mercados nunca habían visto tal concentración de capital en un área».

La Inminente Escasez de Especialistas
Mientras el capital fluye libremente, un cuello de botella crítico se ha hecho patente con el rápido crecimiento del mercado de la IA. Ni siquiera los «desarrolladores geniales» son suficientes. La educación y formación de especialistas en IA deben elevarse a un nuevo nivel, sistematizado, para satisfacer la demanda.
La presidenta de la Comisión Europea, Ursula von der Leyen, anunció en febrero un compromiso de 200.000 millones de euros para el desarrollo de la IA. Afirmó que «la carrera de la IA está lejos de haber terminado».
El Impacto Cambiante de la IA en el Mercado Laboral
Está surgiendo un panorama paradójico. Las startups prometedoras pueden recaudar miles de millones de los inversores. Sin embargo, no hay suficientes personas cualificadas para llevar a cabo estas ideas revolucionarias.
Esta realidad ha impulsado una búsqueda global de talento. Solo el 78% de las empresas están dispuestas a buscar a las personas adecuadas en todo el mundo. Lo cual lleva a un notable resurgimiento de las tendencias de trabajo a distancia.
La revista Forbes se hace eco de este sentimiento, enfatizando la necesidad duradera del ingenio humano:
«La inteligencia artificial necesita más que nunca al genio humano. Aunque las herramientas de IA pueden procesar datos a velocidades sin precedentes e identificar patrones que los humanos podrían pasar por alto, necesitan la orientación humana para crear un impacto empresarial significativo».
El Libro de Reglas de la IA: ¿Podemos Confiar en que la IA Cumpla las Normas?
A medida que la IA se integra rápidamente en cada faceta de la sociedad, se devela una preguntas crucial. ¿Quién establece las reglas y se puede obligar a la IA a seguirlas?
Gobiernos, líderes de la UE e incluso sindicatos están ahora moviéndose activamente para establecer límites al uso de la IA. Lo que indica un impulso global hacia la gobernanza y la ética de la IA.
La Federación Panhelénica de Asociaciones de Periodistas (POESY) en Grecia presentó recientemente un nuevo código para el uso de la IA. De esta forma, establece estándares claros para los empleados de los medios de comunicación.
Esta iniciativa subraya un creciente reconocimiento de que las regulaciones específicas de la IA son esenciales. Sobre todo, en sectores que se ocupan de la creación de contenido y la difusión de información.
Para el trabajo intelectual, las normas actuales de la IA exigen principalmente el etiquetado obligatorio de los textos y materiales visuales creados con la participación de la IA. Esto tiene como objetivo garantizar la transparencia de la IA. Además de ayudar a distinguir entre el contenido generado por humanos y el asistido por IA.
Sin embargo, existe una sutil paradoja. Muchos empleados de medios de comunicación, editoriales y agencias de publicidad llevan tiempo delegando algunas de sus tareas. La traducción o la recopilación de datos, son las más usadas con sus «amigables» asistentes de IA.
Una IA Habla: La Visión de Bing Copilot sobre el Cumplimiento
El impulso por la regulación adquiere una nueva dimensión al considerar la propia perspectiva de la IA sobre la adhesión a los protocolos definidos. Se le preguntó directamente al Copilot de Bing de Microsoft si la IA podía eludir sus propias reglas programadas. Su respuesta fue inmediata e inquebrantable:
«No, la IA opera dentro de reglas y principios predefinidos establecidos por sus desarrolladores. Las reglas están ahí para garantizar un uso ético, seguro y responsable de la IA, prevenir daños y mantener la confianza».
La explicación de Bing enfatizó además el papel de la supervisión humana en el control de las limitaciones de la IA. «Los desarrolladores pueden ajustar la configuración y mejorar los patrones. Asimismo, crear nuevas salvaguardias para mantener la IA dentro de los límites éticos».
Esto resalta la dependencia continua del ingenio humano para garantizar la seguridad y el cumplimiento de la IA.
El futuro de la IA dependerá, sin duda, de un delicado equilibrio entre la supervisión humana, los marcos regulatorios y la propia naturaleza evolutiva de la inteligencia artificial.