En mayo de 2025, millones de personas vieron a Billie Eilish en Met Gala.
O pensaron.
Fotos y videos de la impresionante estrella del pop de vestidos se han vuelto virales. Algunos fanáticos lo elogiaron. Otros se rieron. Los medios de comunicación lo recogieron, los influenciadores aumentaron de peso e Internet hizo todo lo posible: respondió.
Pero había un problema. Billie Eilish no estaba allí.
«No estaba allí. Es AI. Hice un espectáculo en Europa esa noche. Déjame hacerlo», publicó.
Lo que parecía real era totalmente falso. Y engañó a todos.
Y esto no es solo chismes de celebridades.
A principios de este año, el ex presidente Donald Trump compartió una imagen de la verdadera sociedad de un hombre que fue deportado por error: Abrego García, cuyo tatuaje de pandillas le tomó una foto de él en su mano. La carta «MS13» fue alterada digitalmente para promover narrativas políticas. No era cierto, pero fue lo suficientemente convincente como para ganar tracción.
«Estamos llegando a un punto en el que solo mirarlo hace que sea imposible transmitir la diferencia entre una foto o video real y una falsa», dijo Yuval Noah Harari.
Deepfake y muerte real
El uso de IA y aprendizaje automático para crear videos humanos falsos no es nada nuevo. Los investigadores y los entusiastas del margen han estado creando falsificaciones profundas durante muchos años. Sin embargo, herramientas como Sora de OpenAi y Veo 3 de Google cierran rápidamente la brecha entre la síntesis y el verdadero humano. Lo que requería habilidades técnicas y tiempo ahora requiere algunas indicaciones y los resultados son sorprendentemente realistas.
Un estudio reciente en la Universidad de Waterloo encontró que las personas pueden distinguir imágenes reales de las imágenes generadas por IA en el 61% del tiempo. Los resultados plantean serias preocupaciones sobre cuán confiables podemos ser en lo que vemos y resaltan la creciente necesidad de herramientas para detectar contenido sintético.
Humanos falsos, eventos falsos, identidades falsas, todas generadas por IA, indistinguibles de la realidad.
Y si ya no podemos confiar en lo que vemos, ¿cuáles serán los cimientos de nuestra sociedad?
Hemos entrado en una era de realidad sintética, que plantea una pregunta urgente.
¿Deberían los humanos generados por AI ser prohibidos como dinero falsificado para evitar el colapso de la confianza social?
Harari dibuja una comparación aguda:
«El gobierno tenía leyes muy estrictas contra la falsificación de dinero porque sabían que si permitieran distribuir dinero falso, las personas perderían su confianza en el dinero y el sistema financiero colapsaría».
Hoy, las herramientas disponibles para cualquier persona con una computadora portátil le permiten crear personas falsas que puedan cruzar el mundo real, desde expresiones faciales hasta tonos de voz.
He visto fotos de inmigrantes falsas empujando historias falsas. Las personas influyentes generadas por IA están construyendo seguidores fingiendo ser falsos. La suplantación de Deepfake es fraudulenta sobre las empresas y las familias.
Se negarán advertencias de Harari:
«Social Trust es la base de la sociedad. Si otros no pueden confiar en quiénes son, desde la política hasta los negocios hasta la vida cotidiana y la vida cotidiana comienza a desentrañarse. Debería ser ilegal para las personas falsas. Necesitamos mantener la confianza social tanto como la confianza financiera».
Similitudes entre la moneda falsificada y los humanos generados por AI
La confianza económica que los humanos (defectos) generados por el dinero falsificado AI socavan la confianza de la sociedad/ciudadanos que a menudo se crean para engañar que los prohibidos en gran medida no regulados o se gobiernan libremente.
Ambos hacen que las bases sociales sean inestables. Es económica y social para los demás. Si protege su sistema financiero con la ley, debe proteger su verdadero sistema de la misma manera.
¿Debería el gobierno intervenir y prohibir a los humanos generados por AI?
Ya no es una conversación teórica.
Cuando los humanos sintéticos pueden usarse para engañar, manipular o disfrazar a gran escala, hay problemas que la ley debe abordar.
Harari lo expresa claramente:
«Si permitimos que las personas falsas sean en bicicleta, las personas pierden su confianza en los demás y la sociedad colapsará».
Así como el gobierno prohibió el dinero falso para proteger la economía, ¿debería la creación de humanos falsos que se prohíbe para proteger la confianza social?
¿Qué cuenta como falso? ¿Dónde dibuja la línea? ¿Y cómo evitamos que las cosas giren aún más?
Por qué una prohibición completa puede ser demasiado extrema
Una prohibición completa de los seres humanos generados por la IA también podría poner en riesgo un segmento de inicio completo. Durante el año pasado, muchas compañías nuevas han proporcionado portavoces generados por IA, videos de UGC, avatares de servicio al cliente, personas influyentes y creadores de contenido de video. Estas nuevas empresas están montando una ola de innovación de medios sintéticos. Esto crea una herramienta que difumina la línea entre humanos y máquinas.
Si el gobierno impone prohibiciones estrictas sin matices, muchas de estas empresas podrían verse obligadas a cerrar o pivotar por completo. Los inversores podrían ser retirados, los fundadores podrían enfrentar la incertidumbre regulatoria y estancaron el ecosistema más amplio de innovación. Si bien algunas de estas herramientas son vulnerables al abuso, otras simplemente buscan reducir costos o democratizar el acceso a la producción de video.
El desafío es dibujar una línea que proteja a la sociedad sin estrangular la innovación.
Todo el uso humano sintético no es dañino.
Las prohibiciones de la manta son:
Bloquee casos de uso legítimos para películas, juegos, educación y accesibilidad. Empuje el abuso más bajo tierra, lo que lo convierte en un modelo anónimo o en alta mar. Confunde el problema y tal vez confunde la creatividad o las parodias de la censura.
Incluso Harari no se opone a la IA mientras busca una prohibición del engaño. Busca restricciones para fingir ser humano.
El punto no es prohibir a todos los humanos. Se trata de detener lo que debe ser engañoso.
¿Qué puedo hacer en su lugar?
Incluso si una prohibición completa no tiene sentido, se necesitan fuertes barandillas.
1. Requerir divulgación:
El contenido humano generado por AI debe venir con etiquetas claras en la pantalla y debajo del capó.
2. Sostenga la plataforma responsable:
Las redes sociales y los editores deben marcar el contenido humano falso de spam y formas fraudulentas.
3. Criminaliza el uso de engaños:
Use AI para hacerse pasar por alguien sin su consentimiento. Ya sea genuino o construido, debe tratarse como el robo de identidad.
4. Hornee con huellas digitales:
Las herramientas de IA que generan contenido humano deben incorporar firmas invisibles para rastrear los orígenes.
5. No se permiten disfraces:
Los sistemas de IA no deben fingir ser personas conversacionales, de marketing o medios de comunicación. período.
Ninguno de estos detiene todos los furks profundos. Pero se oponen al abuso y envían un mensaje claro: la verdad es importante.
¿Por qué el gobierno tiene que actuar?
No se trata de sobreregulación. Esto es para dibujar una línea entre la verdad y la ficción.
La verdadera amenaza no es AI. Es una IA que finge ser humana.
Así como el efectivo falso daña la economía, las personas falsas se confían en sus instituciones, relaciones y, de hecho, por derecho propio.
Esto es lo que el gobierno puede hacer ahora:
Hace que sea ilegal hacerse pasar por un humano y hacerse pasar por una persona real o ficticia sin revelarlo. Necesita las etiquetas de cara y voz generadas por IA. Plataformas finas o castigadoras que se pueden extender sin monitorear a los humanos sintéticos. Se ocupa de los profundos maliciosos como la falsificación digital y el acoso.
Pensamientos finales
Ahora estamos en el punto en que tenemos que negar que estamos compitiendo en un evento al que las celebridades nunca han asistido … cuando el presidente comparte fotos falsas para hacer un punto político …
Ya no estamos discutiendo el futuro. Vivimos en él.
Ahora debemos dibujar una línea de que la verdad misma puede convertirse en una opción en derecho, tecnología y expectativas públicas.
¿Comparta la historia?
Envíe sus historias a TechStartups.com frente a miles de fundadores, inversores, compañías de educación física, ejecutivos de tecnología, tomadores de decisiones y líderes tecnológicos.
Atraer la atención
Source link