Un nuevo informe del Fondo Educativo del Grupo de Investigación de Interés Público (PIRG) de EE. UU. ha expresado su preocupación por el creciente uso de chatbots de inteligencia artificial en juguetes infantiles, advirtiendo que algunos de estos sistemas podrían no ser adecuados para usuarios jóvenes. Según el informe , varios juguetes con IA integran tecnología de chatbot que puede generar respuestas similares a las utilizadas en servicios de IA para adultos, lo que podría exponer a los niños a contenido inapropiado o engañoso.
El estudio examinó una gama de juguetes que incorporan funciones de IA conversacional, incluyendo muñecas interactivas, robots y dispositivos educativos. Muchos de estos productos permiten a los niños hablar con un juguete que responde en lenguaje natural, impulsado por modelos de lenguaje complejos similares a los utilizados en los chatbots de IA ampliamente disponibles.
Si bien la tecnología puede hacer que los juguetes sean más interactivos y educativos, los investigadores de PIRG argumentan que las medidas de seguridad integradas en algunos productos podrían no ser lo suficientemente sólidas para proteger al público más joven. En particular, el informe destaca que los sistemas de IA subyacentes a menudo provienen de plataformas diseñadas principalmente para usuarios generales, no para niños.
Por ello, las respuestas de IA generadas por estos juguetes podrían incluir información o temas de conversación más apropiados para adultos que para niños. El informe también advierte que la IA puede producir respuestas inexactas o impredecibles, lo que podría confundir a los jóvenes usuarios, quienes suelen confiar en los juguetes como fuentes fiables de información.
Los investigadores que revisaron la documentación de los juguetes y las políticas de privacidad también descubrieron que algunos productos dependen en gran medida de sistemas de inteligencia artificial basados en la nube.
Esto significa que las interacciones de voz de los niños pueden transmitirse a servidores externos donde se procesan los datos y se utilizan para generar respuestas. Los defensores de la privacidad afirman que esto plantea preocupaciones adicionales sobre cómo se almacenan y utilizan los datos de los niños. Algunos juguetes pueden recopilar grabaciones de audio, indicaciones de usuario u otra información personal durante las conversaciones. Si estos sistemas no se diseñan cuidadosamente con protecciones para la privacidad infantil, los datos podrían ser utilizados indebidamente o almacenados sin garantías claras.
El informe también señala que muchos juguetes con IA incluyen descargos de responsabilidad ocultos en sus condiciones de servicio o documentación del producto. Estos descargos a veces indican que las respuestas de la IA pueden no ser siempre precisas o apropiadas, lo que, en la práctica, traslada la responsabilidad a los padres, mientras que el juguete en sí se comercializa directamente a los niños.
Esta situación es importante porque la tecnología de IA se está incorporando cada vez más a los productos de consumo cotidiano, incluyendo artículos diseñados específicamente para el público infantil. Los juguetes que simulan conversaciones pueden tener una gran influencia en los niños, quienes a menudo los utilizan como compañeros o herramientas de aprendizaje.
Los expertos afirman que los niños pueden tener dificultades para distinguir entre información fiable y respuestas generadas por IA que son especulativas, sesgadas o incorrectas. A medida que los sistemas de IA siguen evolucionando, garantizar que estas tecnologías estén adaptadas a la seguridad infantil será cada vez más importante.
Los hallazgos también resaltan un desafío regulatorio más amplio
Si bien muchos países tienen leyes diseñadas para proteger la privacidad de los niños en línea, como la Ley de Protección de la Privacidad Infantil en Línea (COPPA) en los Estados Unidos, estas regulaciones se desarrollaron antes del surgimiento de la IA generativa .
Los grupos de defensa argumentan que los reguladores pueden necesitar actualizar los estándares y pautas de seguridad para abordar cómo los sistemas de IA interactúan con los niños a través de dispositivos conectados.
El informe de PIRG insta a los fabricantes de juguetes a implementar medidas de seguridad más estrictas, como un filtrado de contenido más estricto, una divulgación más clara sobre el uso de la IA y prácticas de gestión de datos más transparentes. También recomienda que las empresas diseñen sistemas de IA específicamente para niños, en lugar de readaptar modelos originalmente diseñados para el público adulto.
De cara al futuro, los investigadores afirman que será necesaria la colaboración entre empresas de tecnología, reguladores y expertos en seguridad infantil para garantizar que los juguetes impulsados por IA sigan siendo innovadores y seguros.
A medida que la inteligencia artificial se integra más en los productos de uso diario, el desafío será equilibrar los beneficios de la tecnología interactiva con la responsabilidad de proteger a los usuarios más jóvenes de los riesgos potenciales.
Los chatbots de inteligencia artificial que solo son aptos para adultos siguen apareciendo en los juguetes de los niños apareció primero en Digital Trends .
