Los fiscales del caso, que se centró en si las aplicaciones de redes sociales como Instagram son adictivas y dañinas, querían saber por qué Meta tardó tanto en implementar herramientas de seguridad básicas, como un filtro de desnudos para mensajes privados enviados a adolescentes. En abril de 2024, Meta introdujo la capacidad de difuminar automáticamente imágenes explícitas en los mensajes directos de Instagram. Según se informa, la empresa reconoció esto como un problema hace casi seis años.
En una declaración recientemente publicada en una demanda federal, el jefe de Instagram, Adam Mosseri, cuando se le preguntó sobre una cadena de correo electrónico de agosto de 2018 con el vicepresidente y director de seguridad de la información de Meta, Guy Rosen, dijo que podrían suceder cosas «terribles» a través de los mensajes privados de Instagram (también conocidos como DM). Esas cosas horribles podrían incluir fotografías de penes, dijo el abogado del demandante, y Mosseri estuvo de acuerdo.
Pero los ejecutivos de Mehta rechazaron preguntas que sugerían que más allá de eliminar CSAM (material de abuso sexual infantil), la compañía debería haber notificado a los padres que su sistema de mensajería no estaba siendo monitoreado.
«Creo que está claro que puedes enviar mensajes con contenido problemático en cualquier aplicación de mensajería, ya sea Instagram o cualquier otra cosa», dijo Mosseri. Dijo que la compañía está tratando de equilibrar las preocupaciones de la gente por la privacidad con sus propias preocupaciones por la seguridad.
El testimonio también reveló nuevas estadísticas sobre comportamientos dañinos en Instagram, revelando que el 19,2% de los encuestados entre 13 y 15 años dijeron haber visto imágenes de desnudos o sexuales en Instagram que no querían ver. Además, el 8,4% de los jóvenes de 13 a 15 años dijeron que habían visto a alguien hacerse daño o intentar hacerse daño en Instagram en los últimos siete días que usaron Instagram.
El filtro de desnudos es sólo una de varias actualizaciones agregadas a Instagram en los últimos años para proteger a los adolescentes, pero los fiscales estaban más preocupados por el retraso que por si la aplicación era más segura para los adolescentes.
A Mosseri se le preguntó sobre otros temas, incluido un correo electrónico de 2017 de un pasante de Facebook en el que decía que quería encontrar usuarios «adictos» de Facebook y ver si había una manera de ayudarlos.
evento de crisis tecnológica
bostón, massachusetts
|
9 de junio de 2026
Se suponía que la cadena de correo electrónico de 2018 serviría como ejemplo de la conciencia de Meta sobre los riesgos para los menores, pero la compañía tardó hasta 2024 en lanzar un producto para abordar el problema del envío de imágenes sexuales a adolescentes. Esto incluye imágenes enviadas por adultos que pueden haber participado en acoso, el proceso de construir una relación de confianza a lo largo del tiempo para que un adulto manipule o explote sexualmente a un menor.
Cuando se le pidió un comentario, la portavoz de Meta, Lisa Crenshaw, señaló otras formas en que la compañía ha trabajado a lo largo de los años para mantener seguros a los adolescentes. Hemos realizado una investigación rigurosa y estamos utilizando estos conocimientos para realizar cambios significativos, incluida la introducción de Cuentas para adolescentes con protecciones integradas y brindar a los padres las herramientas para administrar las experiencias de sus hijos adolescentes. Estamos orgullosos del progreso que hemos logrado. Siempre nos esforzamos por hacerlo mejor”, dijo.
La declaración proporcionada por Mosseri se incluye en una de varias demandas en curso que responsabilizan a las grandes empresas de tecnología por dañar a los adolescentes. En esta demanda en particular, presentada ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, los demandantes argumentan que las plataformas de redes sociales tienen fallas porque están diseñadas para maximizar el tiempo adictivo frente a la pantalla entre los adolescentes. Los demandados incluyen Meta, Snap, TikTok y YouTube (Google).
Se están llevando a cabo demandas similares en el Tribunal Superior del Condado de Los Ángeles y en Nuevo México.
En cada caso, los abogados esperan demostrar que las grandes empresas tecnológicas priorizaron la necesidad de aumentar el crecimiento y la participación de los usuarios sobre el daño que podría afectar a sus usuarios más jóvenes.
Los casos llegan en un momento en que un número creciente de leyes en varios estados de EE. UU. y en el extranjero están promulgando restricciones al uso de las redes sociales por parte de los adolescentes.
Actualizado con metacomentarios después de la publicación.
Source link
