Los defensores de la privacidad y los derechos digitales han advertido sobre las leyes que muchos esperan que animen: opresión federal de porno de venganza y defectos profundos generados por IA.
La Ley de Take It Down recién firmada hace que sea ilegal publicar imágenes explícitas de inconsent (realista o generado por IA) y proporciona una plataforma durante solo 48 horas para cumplir con las solicitudes de eliminación de las víctimas o la responsabilidad facial. Si bien durante mucho tiempo ha sido ampliamente elogiado como una larga victoria para las víctimas, los expertos advirtieron que el lenguaje vago, los estándares sueltos para verificar las afirmaciones y las ventanas de cumplimiento estrechas podrían allanar el camino para exaltar, censura de contenido legítimo e incluso vigilancia.
«La moderación de contenido grande es extremadamente problemática y siempre significa que se censuran los discursos importantes y necesarios», dijo a TechCrunch, directora de asuntos federales de la Fundación de Derechos Digitales de Digital Frontier.
Las plataformas en línea tienen un año para establecer un proceso para eliminar imágenes íntimas no consensuadas (NCII). La ley requiere una solicitud de derribo de la víctima o su representante, pero solo requiere firmas físicas o electrónicas. No se requieren una identificación con foto u otras formas de verificación. Es probable que reduzca las barreras para las víctimas, pero podría crear oportunidades de abuso.
«Espero estar realmente equivocado sobre esto, pero creo que hay más demanda para eliminar imágenes que representan a las personas queer y trans en las relaciones. Más que eso, creo que será porno consensual», dijo McKinney.
La senadora Marsha Blackburn (R-TN), copatrocinadora de la Ley Take It, patrocinó la Ley de Seguridad en línea de los niños. Blackburn dijo que cree que el contenido relacionado con las personas transgénero es perjudicial para los niños. Del mismo modo, la Fundación Heritage (el grupo de expertos conservador detrás del Proyecto 2025) también declaró que «dirigir el contenido trans de los niños está protegiendo a los niños».
Debido a la responsabilidad que enfrenta si la plataforma no elimina la imagen dentro de las 48 horas posteriores a la recepción de la solicitud, «el valor predeterminado es simplemente eliminarla para ver si es realmente un NCII o si es otro tipo de discurso protegido o si se relaciona con la persona que realiza la solicitud», dijo McKinney.
Snapchat y Meta ambos dicen que apoyan la ley, pero tampoco respondieron a la solicitud de TechCrunch con detalles sobre cómo determinar si la persona que solicita derribo es una víctima.
Mastodon, una plataforma descentralizada que alberga sus propios servidores insignia a los que otros pueden unirse, le dijo a TechCrunch que se inclinaría hacia la eliminación si fuera demasiado difícil ver a la víctima.
Otras plataformas distribuidas como Mastodon, Bluesky y Pixed pueden ser particularmente vulnerables a los efectos fríos de la regla de derribo de 48 horas. Estas redes a menudo dependen de servidores operados de forma independiente administrada por organizaciones sin fines de lucro o individuos. Según la ley, la FTC puede tratar una plataforma que «razonablemente no sigue» la demanda de derribo como cometer «conducta o práctica injusta o engañosa», incluso si el anfitrión no es una entidad comercial.
«Esto está plagado de su rostro, pero especialmente en el momento en que el presidente de la FTC ha tomado medidas sin precedentes para politizar a sus agentes y, en contraste con su base de principios, se compromete explícitamente a utilizar el poder de la institución para castigar las plataformas y servicios ideológicos».
Vigilancia proactiva
McKinney predice que comenzará a moderar su contenido antes de que la plataforma se vuelva popular y se eliminarán pocas publicaciones problemáticas en el futuro.
La plataforma ya está utilizando AI para monitorear contenido dañino.
Kevin Guo, CEO y cofundador de la startup de detección de contenido generada por AI Hive, dijo que su compañía trabajará con plataformas en línea para detectar el material de abuso sexual infantil (CSAM). Los clientes de Hive incluyen Reddit, Giphy, Vevo, Bluesky y Bereal.
«En realidad fuimos una de las compañías tecnológicas que apoyaron el proyecto de ley», dijo Guo a TechCrunch. «Ayuda a resolver algunos problemas muy importantes y obligar a estas plataformas a adoptar soluciones de manera más proactiva».
Debido a que el modelo Hive es software como un servicio, las nuevas empresas no tienen control sobre cómo la plataforma usa sus productos para marcar el contenido. Sin embargo, Guo dijo que muchos clientes insertarán la API de Hive en el punto de carga antes de ser enviados a la comunidad.
Un portavoz de Reddit le dijo a TechCrunch que la plataforma utiliza NCIIS «para tratar y eliminar herramientas, procesos y equipos internos sofisticados». Reddit se asociará con SWGFL sin fines de lucro para implementar herramientas stopncii. Esto escanea el tráfico en vivo de partidos contra bases de datos NCII conocidas y elimina las coincidencias exactas. La compañía no compartió una forma de garantizar que aquellos que solicitaron un derribo fueran víctimas.
McKinney advierte que este tipo de vigilancia puede extenderse a mensajes cifrados en el futuro. La ley se centra en la adopción pública o semipública, pero también requiere una plataforma para eliminar y hacer esfuerzos razonables para evitar «reuplicar las imágenes íntimas no sensuales. Ella argumenta que incluso si se trata de un espacio encriptado, puede alentar la escaneo proactivo de todos los contenidos. La ley no incluye las abasteces de los servicios de mensajería agrietados como WhatsApp, Signal e IMessage.
Meta, Signal y Apple no han respondido a las solicitudes de TechCrunch para obtener más información sobre la planificación de mensajes cifrados.
El impacto de la libertad de expresión más amplia
El 4 de marzo, Trump pronunció un discurso conjunto al Congreso, donde elogió la Ley de Take It y dijo que estaba ansioso por firmarlo.
«Y si no te importa, yo también usaré la factura para mí», agregó. «Nadie es tratado mejor que yo en línea».
No todos lo tomaron como una broma mientras el público se reía de los comentarios. Trump no era tímido para suprimir o tomar represalias contra discursos desfavorables, ya sea que fuera etiquetado o no «el enemigo de las personas» por los principales medios de comunicación.
El jueves, la administración Trump intensificó un conflicto que comenzó después de que la Universidad de Harvard prohíbe aceptar hospitalizaciones para estudiantes extranjeros y la Universidad de Harvard se negó a cumplir con las demandas de Trump para eliminar el contenido relacionado con DEI. En represalia, Trump amenazó a Harvard para congelar los fondos federales y cancelar el estado libre de impuestos de la universidad.
“Cuando ya vemos comités escolares que intentan prohibir los libros y miran muy claramente los tipos de contenido que ciertos políticos no quieren ver a las personas, el tipo de contenido que son teorías raciales importantes, información de aborto, información sobre el cambio climático, el trabajo pasado sobre la moderación del contenido es muy ofensivo para nosotros al defender abiertamente la moderación de contenido en esta escala.
Source link