YouTube anunció el martes que ampliará su tecnología de detección de similitudes que identifica deepfakes generados por IA a un grupo piloto de funcionarios gubernamentales, candidatos políticos y periodistas. Los miembros del grupo piloto tendrán acceso a herramientas que les permitirán detectar contenido abusivo generado por IA y solicitar su eliminación si creen que viola las políticas de YouTube.
La tecnología en sí comenzó a implementarse para los aproximadamente 4 millones de creadores de YouTube en el Programa de socios de YouTube el año pasado después de pruebas previas.
Al igual que el sistema Content ID existente de YouTube, que detecta material protegido por derechos de autor en videos subidos por los usuarios, la función de detección de similitud busca rostros simulados creados con herramientas de inteligencia artificial. Estas herramientas se pueden utilizar para difundir información errónea o manipular las percepciones de la realidad de las personas aprovechando personajes falsificados de políticos, funcionarios gubernamentales y otras figuras prominentes para decir o hacer cosas en videos de IA que no hicieron en la vida real.
Con un nuevo programa piloto, YouTube pretende equilibrar la libre expresión de los usuarios con los riesgos asociados con la tecnología de inteligencia artificial que puede generar imágenes convincentes de celebridades.
«Esta expansión trata realmente de la integridad de la conversación pública», dijo Leslie Miller, vicepresidenta de asuntos gubernamentales y políticas públicas de YouTube, en una conferencia de prensa previa al lanzamiento del martes. «Sabemos que el riesgo de suplantación de IA es particularmente alto para las personas en espacios públicos. Pero si bien proporcionamos este nuevo escudo, también somos cuidadosos en cómo se usa», afirmó.

Miller explicó que no todas las coincidencias encontradas se eliminarán si se solicita. En cambio, YouTube evalúa cada solicitud según las pautas de política de privacidad existentes para determinar si el contenido es una parodia, una forma protegida de libre expresión o una crítica política.
La compañía dijo que apoya la Ley NO FAKES de D.C., que regula el uso de IA para reproducir voces o imágenes visuales no autorizadas de individuos, y también aboga por estas protecciones a nivel federal.
Para utilizar la nueva herramienta, los pilotos de prueba elegibles primero deben demostrar su identidad cargando una selfie y una identificación gubernamental. Luego puede crear un perfil, ver las coincidencias que aparecen y solicitar la eliminación si es necesario. YouTube dice que eventualmente podrá evitar la carga de contenido infractor antes de su publicación y potencialmente monetizar esos videos, de manera similar a cómo funciona su sistema Content ID.
La compañía no dijo qué políticos o funcionarios estarían entre los primeros probadores, pero dijo que el objetivo es hacer que la tecnología esté ampliamente disponible con el tiempo.

Estos videos de IA están etiquetados como tales, pero la ubicación de estas etiquetas es inconsistente. Para algunos videos, las etiquetas aparecen en la descripción del video, mientras que para los videos que se centran en «temas más sensibles», las etiquetas se aplican al comienzo del video. Este es el mismo enfoque que adopta YouTube para todo su contenido generado por IA.
«Hay mucho contenido generado por IA, pero la distinción realmente no le importa al contenido en sí», dijo Amjad Hanif, vicepresidente de productos para creadores de YouTube, al explicar el posicionamiento de la etiqueta. «Podría ser una caricatura generada por IA. Así que creo que hay que juzgar si es una categoría digna de un descargo de responsabilidad muy visible», dijo.
YouTube no revela actualmente cuántos de estos deepfakes de IA han sido eliminados por los creadores que utilizan la tecnología de detección de deepfake, pero dijo que la cantidad de contenido eliminado hasta la fecha es «muy pequeña».
«Creo que muchos creadores simplemente son conscientes de lo que se está haciendo, pero la cantidad real de solicitudes de eliminación es muy, muy baja porque la mayoría de ellas resultan ser bastante benignas o aditivas para el negocio en su conjunto», dijo Hanif.
Es posible que esto no se aplique a los deepfakes de funcionarios gubernamentales, políticos y periodistas.
Con el tiempo, YouTube planea llevar su tecnología de detección de deepfake a más áreas, incluidas otras propiedades intelectuales, como voces reconocibles y personajes populares.
Source link
