Chris Lehane es uno de los mejores de la industria a la hora de ahogar las malas noticias. Lehane, secretario de prensa de Al Gore durante la era Clinton y gestor de crisis de Airbnb que capeó todas las pesadillas regulatorias desde aquí hasta Bruselas, sabe cómo dar vueltas. Ahora lleva dos años en lo que podría ser el trabajo más imposible jamás realizado. Como vicepresidente de política global de OpenAI, su trabajo es convencer al mundo de que OpenAI se toma en serio la democratización de la inteligencia artificial, incluso cuando la empresa se está comportando de la misma manera que otros gigantes tecnológicos que durante mucho tiempo han afirmado ser diferentes.
Pasé 20 minutos con él en el escenario de la conferencia Elevate en Toronto a principios de esta semana. Veinte minutos fueron tiempo suficiente para pasar de los puntos de conversación y profundizar en las contradicciones reales que están socavando la imagen cuidadosamente construida de OpenAI. No fue fácil y tampoco fue un éxito total. Lehane es realmente bueno en su trabajo. Es simpático. Suena razonable. Reconoce la incertidumbre. Incluso habla de despertarse a las 3 de la madrugada preguntándose si esto realmente beneficiaría a la humanidad.
Pero las buenas intenciones no significan mucho cuando su empresa convoca a detractores, drena el agua y la electricidad de ciudades económicamente deprimidas o devuelve la vida a celebridades muertas para afirmar su dominio en el mercado.
El problema Sora de la empresa está en realidad en la raíz de todo. La herramienta de generación de videos fue lanzada la semana pasada y parece incluir material protegido por derechos de autor intacto. Fue un movimiento audaz para la empresa, que ya ha sido demandada por el New York Times, el Toronto Star y la mitad de la industria editorial. También fue fantástico desde una perspectiva empresarial y de marketing. El director ejecutivo de OpenAI, Sam Altman, dijo que la aplicación sólo por invitación se ha disparado a la cima de la App Store a medida que las personas crean versiones digitales de sí mismas. Personajes como Pikachu, Mario y Cartman de «South Park». También hay personajes famosos que han fallecido, como Tupac Shakur.
Cuando se le preguntó qué motivó la decisión de OpenAI de lanzar esta última versión de Sora con estos personajes, Lehane dio el discurso estándar. Sora es una «tecnología de propósito general» como la electricidad o la imprenta que democratiza la creatividad de personas sin talento ni recursos. Aunque se autodenomina un cero creativo, en el escenario dijo que ahora puede hacer videos.
Originalmente, los titulares de derechos «permitieron» a He Danced optar por no utilizar su trabajo para entrenar a Sora, que no es la forma en que normalmente se usan los derechos de autor. Luego «evolucionó» hacia un modelo de suscripción voluntaria después de que OpenAI se diera cuenta de que a la gente realmente le gustaba usar imágenes con derechos de autor. Realmente no es una repetición. Estoy tratando de ver hasta dónde puedo escapar. (Por cierto, la Motion Picture Association hizo algo de ruido la semana pasada sobre amenazas legales, pero OpenAI parece haberse salido con la suya en muchas cosas).
Como era de esperar, esta situación es un recordatorio frustrante para los editores que acusan a OpenAI de entrenar su trabajo sin compartir el botín financiero. Cuando confronté a Lehane acerca de que los editores estaban excluidos de la economía, mencionó el uso legítimo. El uso legítimo es una doctrina jurídica estadounidense que equilibra los derechos de los creadores con el acceso del público al conocimiento. Lo llamó el arma secreta de la superioridad tecnológica de Estados Unidos.
evento de crisis tecnológica
san francisco
|
27-29 de octubre de 2025
tal vez. Pero recientemente entrevisté al antiguo jefe de Lehane, Al Gore, y me di cuenta de que en lugar de leer mi artículo en TechCrunch, cualquiera puede preguntar al respecto en ChatGPT. «Es ‘repetitivo'», dije, «pero también es un desplazamiento».
Por primera vez, Lehane dejó caer a Spiel. «Todos vamos a necesitar entender esto», dijo. «Es realmente torpe y fácil sentarse aquí en el escenario y decir que necesitamos idear un nuevo modelo de ingresos económicos. Pero creo que lo haremos». (En resumen, lo vamos inventando sobre la marcha).
Luego están las preguntas sobre infraestructura que nadie quiere responder honestamente. OpenAI ya opera un campus de centro de datos en Abilene, Texas, y recientemente inició la construcción de un gran centro de datos en Lordstown, Ohio, en asociación con Oracle y SoftBank. Lehane compara la accesibilidad de la IA con la llegada de la electricidad, diciendo que aquellos que tuvieron acceso a ella en último lugar todavía se están poniendo al día, pero el proyecto Stargate de OpenAI parece estar apuntando a algunas regiones con dificultades económicas similares como lugares para instalar instalaciones que consumen agua y electricidad.
Durante la mesa redonda, Lehane habló de gigavatios y geopolítica cuando se le preguntó si estas comunidades se beneficiarían o simplemente pagarían la factura. Señaló que OpenAI requiere alrededor de gigavatios de energía por semana. China instaló 450 gigavatios más 33 instalaciones nucleares el año pasado. Si las democracias quieren una IA democrática, deben competir. «El optimista que hay en mí dijo que esto modernizaría nuestro sistema energético», dijo, pintando un cuadro de un Estados Unidos reindustrializado con una red eléctrica transformada.
Se estaba moviendo. Pero no respondió si las personas en Lordstown y Abilene verían sus facturas de servicios públicos dispararse mientras OpenAI generaba videos de John F. Kennedy y el infame magnate (la generación de videos es la forma de IA que consume más energía que existe).
Entonces se me ocurrió el ejemplo más desagradable. El día antes de su entrevista, Zelda Williams rogó a extraños en Instagram que dejaran de enviarle videos de su difunto padre, Robin Williams, generados por inteligencia artificial. “No estás haciendo arte”, escribió. «Estás utilizando vidas humanas para hacer hot dogs repugnantes y sobreprocesados».
Cuando le pregunté cómo concilia la empresa su misión con este tipo de daño cercano, Lehane respondió hablando de procesos como el diseño responsable, los marcos de prueba y las asociaciones gubernamentales. «No existe un manual para esto, ¿verdad?»
Lehane ha mostrado debilidad en ocasiones, diciendo que todas las noches se despierta a las 3 de la mañana preocupado por la democracia, la geopolítica y la infraestructura. «Esto conlleva mucha responsabilidad».
Ya sea que ese momento haya sido diseñado para la audiencia o no, le creo en su palabra. De hecho, dejé Toronto pensando que había asistido a una clase magistral sobre mensajería política. Por lo que sé, es Lehane enhebrando una aguja imposible mientras esquiva preguntas sobre decisiones de la empresa con las que ni siquiera está de acuerdo. Entonces sucedió el viernes.
Nathan Calvin, un abogado de políticas de inteligencia artificial del grupo de defensa sin fines de lucro Encode AI, dijo que casi al mismo tiempo que yo hablaba con Lehane en Toronto, OpenAI estaba enviando agentes del sheriff a la casa de Lehane en Washington, D.C., para entregar una citación durante la cena. Querían sus mensajes personales con legisladores del estado de California, estudiantes universitarios y ex empleados de OpenAI.
Calvin acusa a OpenAI de tácticas de miedo en torno a la nueva regulación de IA de California, SB 53. Dijo que OpenAI estaba usando su batalla legal con Elon Musk como pretexto para atacar a sus críticos, y sugirió que Encode fue financiado en secreto por Musk. De hecho, Calvin luchó contra la oposición de OpenAI al proyecto de ley de seguridad de la IA de California, SB 53, y dijo que «literalmente se rió a carcajadas» cuando vio a la compañía afirmar haber «trabajado para mejorar el proyecto de ley». En una serie de redes sociales, pasó a llamar específicamente a Lehane un «maestro de las artes oscuras políticas».
En Washington, eso podría ser un cumplido. Para una empresa como OpenAI, cuya misión es «construir una IA que beneficie a toda la humanidad», esto suena como una acusación.
Más importante aún, incluso los empleados de OpenAI tienen conflictos sobre lo que les sucede.
Como informó mi colega Max la semana pasada, después del lanzamiento de Sora 2, varios empleados actuales y anteriores expresaron sus preocupaciones en las redes sociales, incluido el investigador de OpenAI y profesor de Harvard Boaz Barak, quien escribió que Sora 2 es «técnicamente impresionante, pero es demasiado pronto para elogiarlo por evitar los obstáculos de otras aplicaciones de redes sociales y deepfakes».
El viernes, Josh Achiam, director de coordinación de misiones de OpenAI, tuiteó algo más notable sobre las acusaciones de Calvin. Atiam inició sus comentarios con «probablemente un riesgo para toda mi carrera», escribiendo sobre OpenAI: «No podemos darnos el lujo de hacer nada que nos convierta en una potencia temible en lugar de una potencia benévola. Tenemos un deber y una misión para con toda la humanidad, y el listón para cumplir ese deber es muy alto».
Eso es. . . algo. Que los ejecutivos de OpenAI cuestionen públicamente si su empresa se está convirtiendo en una «fuerza terrible en lugar de una buena empresa» no es lo mismo que un competidor disparando un arma o un periodista haciendo una pregunta. Se trata de alguien que elige trabajar en OpenAI, cree en su misión y reconoce una crisis de conciencia a pesar de los riesgos laborales.
Es un momento de cristalización. Podrías ser el mejor operador político de la industria tecnológica, un maestro en sortear situaciones imposibles y, aun así, terminar trabajando para una empresa cuyas acciones contradicen cada vez más los valores que defiende. Es probable que esa contradicción se vuelva aún más fuerte a medida que OpenAI avanza hacia la inteligencia artificial general.
Creo que la verdadera pregunta no es si Chris Lehane puede vender la misión de OpenAI. Lo que importa es si otras personas (incluidas, fundamentalmente, otras que trabajan allí) todavía lo creen.
Source link
