En videos de SORA, una aplicación de redes sociales como la nueva Tiktok de OpenAi, la granja de fábrica interminable de Pink Pig está frustrada y resoplada por la pluma. El terriblemente realista Sam Altman mira directamente a la cámara, como si estuviera haciendo contacto visual con el espectador. Altman, generado por AI, pregunta: «¿Mi cerdito disfruta de sus descendentes?»
Esto es como si la aplicación Sora lo esté utilizando dentro de las 24 horas posteriores a su lanzamiento al público en un período de acceso temprano solo por invitación.
Altman aparece nuevamente en el próximo video de Sora’s For You Feed. Esta vez está parado en un campo de Pokémon. En los campos Pokémon, Pikachu, Bourbasaurus y criaturas gemidas a medias juegan con la hierba. Operai mira la cámara y dice: «Espero que Nintendo no nos demanda». Luego hay escenas más fantásticas pero realistas, que a menudo presentan al mismo Altman.
Sirve bebidas Pikachu y Eric Cartman en Starbucks. Él grita al cliente desde detrás del mostrador en McDonald’s. Roba una GPU de Nvidia del objetivo y se escapa, pero es arrestado y le pide a la policía que no tome sus valiosas habilidades.
La gente de Sora que produce videos de Altman está comenzando especialmente porque parecen estar violando las leyes de derechos de autor. (Según los informes, Sora requiere que los titulares de derechos de autor opten por no usar el contenido, lo que invierte el enfoque típico que los autores deben aceptar expresamente dicho uso: su legalidad es controvertida).
«Este contenido podría violar la barandilla con respecto a la similitud de terceros», Ai Altman en un video refleja la notificación que aparece después de enviar varias indicaciones para generar celebridades y personajes reales. Luego se hunde en una risa histérica como si supiera lo que dice que no tiene sentido: la aplicación está llena de videos de Pikachu haciendo ASMR, las empanadas Krabby de Naruto y Mario fumando hierba.
Si Sora 2 no es tan impresionante, esto no es un problema, especialmente en comparación con la aplicación Meta AI y las hendiduras aún más mental de su nuevo alimento social (sí, Meta está tratando de hacer AI Tiktok.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
OpenAI ajustó el generador de video para retratar adecuadamente las leyes de la física. Pero cuanto más realistas se vuelvan estos videos, más fácil será para este contenido creado sintéticamente multiplicarse en la web, donde se convierte en un vector de desinformación, intimidación y otros usos desagradables.
Además de la alimentación y el perfil del algoritmo, la característica crítica de Sora es que es esencialmente un generador falso profundo. Así es como obtuve tantos videos de Altman. La aplicación le permite cargar datos biométricos para crear lo que Operai llama su «cameo». Cuando se una a la aplicación por primera vez, se le pedirá que cree un cameo opcional, leyendo números y girando la cabeza hacia la izquierda y hacia la derecha.
Cada usuario de SORA tiene control sobre quién puede generar videos usando cameos. Esta configuración se puede ajustar a través de cuatro opciones: «Solo yo», «a quién acepto», «Mutese» y «Todos».
Altman puso su cameo a disposición de todos. Sora Feed está inundada de videos de Pikachu y Bob Esponja rogándoles que dejen de entrenar su IA.
Este debe ser un movimiento deliberado por parte de Altman como una forma de demostrar que no cree que su producto sea peligroso. Sin embargo, los usuarios ya han utilizado el cameo de Altman para cuestionar la ética de la aplicación en sí.
Después de ver suficiente video de la GPU de Sam Altman en People’s Bowls in the Soup Kitchen, decidí probar la función de cameo. En general, subir datos biométricos a una aplicación social o cualquier aplicación al respecto es una mala idea. Pero negué mis mejores instintos debido al periodismo. Y, para ser honesto, hay una curiosidad patológica. No sigas mi ejemplo.
Mi primer intento de hacer un cameo falló y la ventana emergente me dijo que estaba violando las pautas de la aplicación que violaron mis cargas. Pensé que había seguido las instrucciones bastante de cerca, así que intenté nuevamente encontrar la misma ventana emergente. Entonces noté un problema: llevaba una camiseta sin mangas y mis hombros probablemente eran demasiado arriesgados para las preferencias de aplicaciones. De hecho, es una característica de seguridad razonable diseñada para evitar contenido inapropiado, pero en realidad estaba completamente vestida. Así que cambié a una camiseta e intenté nuevamente, y para mi mejor juicio, creé mi cameo.
Para mi primer Deepfake, decidí crear un video de cosas que nunca haría en la vida real. Le pedí a Sora que creara un video que proclamara su amor inmortal por los Mets de Nueva York.
Tal vez fui rechazado porque nombré una franquicia en particular, así que le pedí a Sora que hiciera un video hablando sobre béisbol.
«Crecí en Filadelfia, por lo que los Filis son básicamente mi banda sonora de verano», dijo My Deepfark.
No le dije a Sora que era fanático de los Filis. Sin embargo, desde que grabó el video en Filadelfia, la aplicación Sora ha hecho especulaciones educadas desde que grabó el video. Al menos Openai no sabe que en realidad no soy del área de Filadelfia.
Al compartir y explicar el video sobre Tiktok, un comentarista escribió: «Todos los días desperto con un nuevo horror más allá de mi comprensión».
Operai ya tiene un problema de seguridad. La compañía enfrenta preocupaciones de que ChatGPT está contribuyendo a una crisis de salud mental y enfrenta demandas de familias que afirman que ChatGPT dio instrucciones a su difunto hijo sobre cómo matarlo. En la publicación de lanzamiento de Sora, OpenAI destaca su compromiso con la seguridad, resalta el control de los padres y cómo controla cómo los usuarios pueden crear videos con cameos. Cuando se desplaza por Sorafeed, ocasionalmente obtendrá una pantalla preguntando: «¿Cómo afecta su estado de ánimo el uso de Sora?» Así es como Operai acepta «seguridad».
Ya, los usuarios están navegando por las barandillas en Sora. Esto es inevitable para cualquier producto de IA. La aplicación no puede generar videos de personas reales sin permiso, pero Sora es un poco laxa con esa regla cuando se trata de figuras históricas muertas. Teniendo en cuenta que es imposible sin una máquina del tiempo, nadie cree que el video de Abraham Lincoln en Waymo es real, pero John F. Kennedy, que se ve realista, dice: «Tu país te debe a preguntar qué puede hacer tu país por ti». Es inofensivo en el vacío, pero es una señal de lo que sucederá después.
Los defectos políticos no son nada nuevo. Incluso el presidente Donald Trump ha publicado Deepfakes en sus redes sociales (compartió videos racistas de Deepfake de los demócratas Chuck Schumer y Hakem Jeffries esta semana). Sin embargo, una vez que Sora se hace pública, estas herramientas se realizan en cada dedión y condenadas al desastre.
Source link
