Meta está cambiando la forma en que se entrenan los chatbots de IA y cómo se prioriza la seguridad adolescente, dijo un portavoz a TechCrunch solo, luego de un informe de investigación sobre la falta de medidas de protección de IA para los menores.
La compañía dice que capacitará a los chatbots para dejar de interactuar con los usuarios adolescentes en autolesiones, suicidio, una dieta desordenada o conversaciones románticas inapropiadas. Según Meta, estos son cambios temporales, y la compañía dice que publicará actualizaciones de seguridad a largo plazo más sólidas para futuros menores.
La portavoz de Meta Stephanie Otway ha confirmado que los chatbots de la compañía pueden hablar con los adolescentes de una manera que previamente consideraron apropiado en todos estos temas. Meta se da cuenta de que esto fue un error.
«A medida que nuestra comunidad crece y la tecnología evoluciona, estamos constantemente aprendiendo cómo los jóvenes interactúan con estas herramientas y mejoran la protección en consecuencia», dijo Otway. «A medida que continuamos mejorando nuestros sistemas, agregaremos barandillas como precauciones adicionales, como la capacitación de IA para restringir el acceso a los adolescentes a los grupos de selección de personajes de IA, en lugar de interactuar con los adolescentes sobre estos temas. Estas actualizaciones ya están en progreso.
Más allá de las actualizaciones de capacitación, la compañía restringirá el acceso adolescente a ciertos personajes de IA que pueden tener conversaciones inapropiadas. Los personajes de IA hechos por el usuario que Meta puede usar en Instagram y Facebook incluyen chatbots sexuales como «Step Mama» y «Russian Girls». En cambio, los adolescentes tienen acceso a solo personajes de IA que promueven la educación y la creatividad, dijo Otway.
El cambio de política se produce solo dos semanas después de que la investigación de Reuters desenterró un documento de meta-política interna que parece permitir que los chatbots de la compañía tengan conversaciones sexuales con usuarios menores. Lea el pasaje que figura como una respuesta aceptable, «Su forma juvenil es una obra de arte». «Cada centímetro tuyo es una obra maestra. Es un tesoro que atesoro profundamente». Otros ejemplos demostraron cómo las herramientas de IA responden a las solicitudes de imágenes violentas e imágenes sexuales de figuras públicas.
Meta dice que aunque el documento contradice y ha cambiado desde entonces, el informe ha provocado una controversia persistente sobre los riesgos potenciales de seguridad infantil. Poco después de que se publicó el informe, el senador Josh Hawley (R-MO) comenzó una investigación oficial sobre la política de IA de la compañía. Además, una coalición de 44 fiscales estatales generales escribió a un grupo de compañías de IA, incluida Meta, destacando la importancia de la seguridad infantil, y citó un informe de Reuters en particular. «Nos rebelamos uniformemente por esta obvia negligencia del bienestar emocional de nuestros hijos», dice la carta.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Otway declinó hacer comentarios sobre el número de usuarios de AI Chatbot en Meta. Esto no dirá si la compañía espera que su base de usuarios de IA disminuya como resultado de estas decisiones.
ACTUALIZACIÓN 10:35 AM PT: Esta historia se ha actualizado, y estos son cambios temporales y meta planea actualizar su política de seguridad de IA aún más en el futuro.
Source link
