Los investigadores de Cambridge dicen que se necesitan regulaciones y estándares de seguridad más claros a medida que se introducen juguetes con inteligencia artificial generativa (GenAI) en entornos de la primera infancia.
Los juguetes de IA diseñados para hablar con niños pequeños pueden requerir regulaciones más estrictas y estándares de seguridad más claros, según un nuevo estudio que examinó cómo estas tecnologías interactúan con niños menores de cinco años.
El estudio, dirigido por investigadores de la Universidad de Cambridge, advierte que muchos juguetes de IA vendidos como compañeros interactivos o herramientas educativas están llegando a los hogares y entornos de la primera infancia, a pesar de la evidencia limitada sobre su impacto en el desarrollo temprano.
Los autores sostienen que salvaguardias más claras, mayor transparencia en torno al uso de datos y etiquetas de seguridad específicas podrían ayudar a los padres y educadores a evaluar mejor los riesgos.
Los primeros hallazgos sugieren diferentes efectos en el desarrollo
Los investigadores dicen que los resultados resaltan tanto los beneficios potenciales como las limitaciones notables de los juguetes de IA en entornos de la primera infancia.
Algunos profesionales de la educación infantil y padres creen que los juguetes conversacionales impulsados por GenAI tienen el potencial de apoyar el desarrollo del lenguaje de los niños. El dispositivo responde verbalmente y fomenta la interacción, por lo que puede ayudar a los niños pequeños a practicar sus habilidades de comunicación.
Sin embargo, el estudio también encontró que muchos juguetes de IA tienen dificultades para interpretar las palabras de los niños, reconocer señales emocionales y participar en juegos imaginativos, actividades que son fundamentales para el desarrollo temprano.
En algunas de las interacciones observadas, los juguetes reaccionaron de manera que confundieron o irritaron a los niños. Por ejemplo, si un niño expresaba afecto por un juguete, el sistema respondía con una advertencia de seguridad general en lugar de reconocer esa afirmación.
En otro caso, cuando un niño decía que estaba triste, la IA malinterpretaba la frase y respondía con un comentario alegre que ignoraba el contexto emocional.
Los investigadores observaron que tales reacciones pueden enviar involuntariamente una señal de que los sentimientos de un niño no son importantes o no se comprenden correctamente.
Un estudio que investiga la interacción entre los juguetes GenAI y el mundo real
La investigación es parte del proyecto Early AI, un estudio de un año de duración sobre cómo los niños interactúan con la IA conversacional en entornos de juego.
La investigación fue encargada por la organización benéfica infantil del Reino Unido Childhood Trust y se centró específicamente en familias y comunidades que experimentan desventajas socioeconómicas. Los investigadores llevaron a cabo el estudio a través del Centro Juego en Educación, Desarrollo y Aprendizaje (PEDAL) de Cambridge.
Para capturar observaciones detalladas, el equipo realizó intencionalmente un estudio pequeño en lugar de uno a gran escala.
Los investigadores primero recopilaron ideas de educadores de la primera infancia a través de una encuesta, luego organizaron grupos focales y talleres con profesionales y líderes de organizaciones benéficas para niños.
También trabajaron con la organización en etapa inicial Baby Zone para realizar sesiones de observación en centros infantiles en Londres. Durante estas sesiones, 14 niños interactuaron con un peluche conversacional GenAI llamado Gabbo, desarrollado por la empresa de tecnología Curio Interactive.
Las interacciones se grabaron en vídeo, lo que permitió a los investigadores analizar cómo los niños interactuaban con los juguetes. Después de cada sesión, tanto los niños como los padres participaron en entrevistas destinadas a explorar sus reacciones ante la experiencia.
Apego emocional y relaciones parasociales
Una de las observaciones más sorprendentes se refería a las respuestas emocionales de los niños a los juguetes de IA.
Algunos niños abrazaron el dispositivo, lo besaron y expresaron cariño. Otros me hablaban como si fuéramos amigos y me proponían jugar juntos.
Los investigadores dicen que estas respuestas pueden reflejar la naturaleza imaginativa del juego de la primera infancia. Pero también resaltan el potencial de los niños para desarrollar relaciones cuasi sociales con sistemas de IA conversacionales o vínculos emocionales unilaterales.
Varios médicos de atención primaria que participaron en este estudio expresaron preocupación sobre esta posibilidad. Observaron que los niños pequeños pueden percibir los juguetes como sentimientos y amistades recíprocos, incluso si la interacción es generada por software.
Las restricciones de conversación crean frustración
Los datos de observación también encontraron que los niños a veces tienen problemas para mantener conversaciones con juguetes de IA.
En algunos casos, el sistema no reconocía cuando el niño interrumpía la conversación o confundía la voz de los padres con el habla del niño. Algunos niños se sintieron claramente frustrados cuando los juguetes no respondieron adecuadamente.
Los investigadores también descubrieron que los juguetes conversacionales de IA funcionaban mal en actividades que involucraban a múltiples participantes o en narraciones imaginativas. Tanto el juego social como el de simulación son ampliamente reconocidos como componentes esenciales del aprendizaje y desarrollo temprano.
Por ejemplo, cuando un niño intentó dar un regalo imaginario a un juguete durante un juego de simulación, el sistema respondió literalmente, desviando la conversación de la actividad.
Preocupaciones sobre la privacidad y la transparencia de los datos
Más allá de las cuestiones de desarrollo, la encuesta también destacó las preocupaciones de los padres sobre la privacidad y el manejo de datos.
Muchos padres informaron incertidumbre sobre qué información recopilan los juguetes de IA durante las conversaciones y dónde se almacenan o comparten esos datos.
Los propios investigadores han descubierto que, al seleccionar juguetes GenAI para su investigación, a menudo tienen políticas de privacidad poco claras o carecen de explicaciones detalladas sobre cómo manejan los datos.
Los primeros expertos informaron incertidumbres similares. Casi la mitad de los profesionales encuestados dijeron que no sabían dónde encontrar orientación fiable sobre la seguridad de la IA para los niños pequeños. La mayoría dijo que el sector de la primera infancia necesitaba más apoyo e información más clara sobre el tema.
Algunos participantes expresaron preocupaciones sobre el costo y el acceso, sugiriendo que las desigualdades digitales existentes podrían profundizarse si los costosos juguetes de IA se convierten en una herramienta educativa común.
Los investigadores recomiendan estándares de seguridad para los juguetes con IA
Para abordar estas preocupaciones, el informe pide un marco regulatorio más sólido que rija los juguetes de IA y otros productos GenAI para niños pequeños.
Las recomendaciones incluyen:
Una certificación de seguridad o kitemark que indique que el juguete ha sido evaluado para detectar riesgos psicológicos y de desarrollo. Una política de privacidad más clara y accesible que explique cómo se manejan los datos de los niños. Restricciones en la funcionalidad que alientan a los niños a tratar los sistemas de IA como almas gemelas. Salvaguardias más sólidas para limitar el acceso de terceros a los modelos de IA subyacentes.
Los investigadores también sostienen que los fabricantes de juguetes deberían involucrar a expertos en desarrollo infantil y expertos en seguridad al diseñar y probar productos.
Dicen que realizar pruebas en niños antes de lanzar un producto podría ayudar a identificar problemas potenciales con la comunicación, las respuestas emocionales y el comportamiento de juego.
Orientación para padres y educadores
Aunque la tecnología continúa evolucionando, el estudio aconseja a las familias y a los educadores de la primera infancia que se acerquen a los juguetes de IA con precaución.
Se anima a los padres a examinar cuidadosamente el producto y participar en juegos con sus hijos para que puedan discutir y contextualizar conversaciones sobre el juguete.
Mantener dichos juguetes en un área común de la casa, en lugar de en un dormitorio o área privada, también puede facilitar que los adultos controlen las interacciones.
El equipo de investigación de Cambridge planea ampliar el proyecto en etapas futuras. Este estudio proporcionará investigaciones adicionales y orientación práctica para los educadores que trabajan con niños pequeños a medida que la tecnología GenAI se vuelve cada vez más omnipresente en los productos de consumo.
Para los investigadores y formuladores de políticas, este estudio destaca cuestiones más amplias. La idea es que, si bien los juguetes con IA se están abriendo paso rápidamente en los entornos de la primera infancia, todavía no hay evidencia de su impacto en el desarrollo.
Source link
