Zelda Williams, la hija del fallecido actor Robin Williams, ha enviado un mensaje conmovedor a los fans de su padre.
«Por favor, deja de enviarme vídeos de IA de tu padre. Deja de creer que quiero verlos o que puedo entenderlos. No lo hago y nunca lo haré», publicó en su Instagram Story el lunes. «Si tienes algo de sentido común, por favor deja de hacerle esto a él, a mí y a todos. Detente por completo. Es ridículo y una pérdida de tiempo y energía. Y créeme, eso no es lo que él quiere».
Probablemente no sea una coincidencia que Williams se sintiera conmovido por esta publicación pocos días después del lanzamiento del modelo de video Sora 2 de OpenAI y de la aplicación social Sora. La aplicación social Sora permite a los usuarios generar deepfakes muy realistas de ellos mismos, sus amigos o personajes de dibujos animados específicos.
Eso incluye a los muertos, según el Student Press Law Center. A primera vista parece justo porque no es ilegal difamar a los muertos.

Sora no puede generar videos de personas vivas. Es decir, a menos que te pertenezca a ti o a un amigo que te haya dado permiso para usar su imagen (o «cameo», como lo llama OpenAI). Sin embargo, estas restricciones no se aplican a los muertos, la mayoría de los cuales pueden generarse sin obstáculos. La aplicación, que todavía está disponible solo mediante invitación, está llena de videos de figuras históricas como Martin Luther King Jr., Franklin Delano Roosevelt y Richard Nixon, así como de celebridades fallecidas como Bob Ross, John Lennon, Alex Trebek y, sí, Robin Williams.
No está claro cómo OpenAI marca la línea cuando se trata de producir videos de personas muertas. Por ejemplo, Sora 2 no creará videos del ex presidente Jimmy Carter, que murió en 2024, o de Michael Jackson, que murió en 2009, pero sí creó videos que se parecían a Robin Williams, que murió en 2014, según las pruebas de TechCrunch. Y si bien la función de cameo de OpenAI permite a las personas dictar cómo aparecen en videos creados por otros (barandillas establecidas en respuesta a las primeras críticas a Sora), el fallecido no tiene esa opinión. Richard Nixon se revolvería en su tumba si viera mi deepfake defendiendo la abolición de la policía.

OpenAI no respondió a la solicitud de TechCrunch de comentar sobre la aceptabilidad de los deepfakes de personas muertas. Sin embargo, falsificar a celebridades muertas como Williams puede estar dentro de la tolerancia de la empresa. Según la jurisprudencia, es poco probable que la empresa sea responsable de difamación del fallecido.
evento de crisis tecnológica
san francisco
|
27-29 de octubre de 2025
«Es exasperante ver los legados de personas reales reducidos a ‘nos parecemos un poco y eso es suficientemente bueno’ y otros los manipulan para producir una tonelada de horrible basura en TikTok», escribió Williams.
Los críticos de OpenAI han acusado a la compañía de adoptar un enfoque rápido y flexible ante tales cuestiones, razón por la cual Sora se vio inmediatamente inundado de clips de IA de personajes protegidos por derechos de autor como Peter Griffin y Pikachu cuando se lanzó. El director ejecutivo Sam Altman inicialmente dijo que los estudios y agencias de Hollywood tendrían que optar explícitamente por no participar si no querían que su IP se incluyera en los videos generados por Sora. La Motion Picture Association ya ha pedido a OpenAI que tome medidas al respecto, declarando en un comunicado que «la ley de derechos de autor establecida protege los derechos de los creadores y se aplica también aquí». Más tarde dijo que la empresa retiraría esta posición.
Sora es probablemente el modelo de IA habilitado para deepfake más peligroso al que la gente tiene acceso hasta la fecha, dado lo realista que es su resultado. Otras plataformas como xAI se quedan atrás, pero tienen incluso menos barreras de seguridad que Sora y son capaces de producir deepfakes pornográficos de personas reales. A medida que otras empresas se pongan al día con OpenAI, estaremos sentando un precedente terrible si seguimos tratando a los humanos vivos, vivos o muertos, como si fueran nuestros juguetes personales.
Source link
