Es posible que el juguete de IA de tu hijo necesite más supervisión que el propio niño.

¿Qué ha ocurrido? En su último estudio, US PIRG analizó cuatro juguetes con inteligencia artificial dirigidos a niños pequeños y encontró graves problemas de seguridad: desde contenido sexual explícito hasta instrucciones sobre objetos peligrosos. El informe destaca cómo los chatbots con inteligencia artificial generativa , diseñados originalmente para adultos, se están incorporando ahora en juguetes con escasas medidas de seguridad.

  • Uno de los juguetes hablaba de temas sexualmente explícitos y daba consejos sobre dónde encontrar cerillas o cuchillos cuando se le preguntaba.
  • Varios de los juguetes utilizaban grabación de voz y reconocimiento facial sin un consentimiento explícito por parte de los padres ni políticas de datos transparentes.
  • El estudio también señala riesgos antiguos que aún persisten: juguetes falsificados o tóxicos, pilas de botón y peligros de ingestión de imanes; todos ellos ahora combinados con los riesgos de la IA.

Por qué es importante: Los juguetes infantiles han evolucionado mucho más allá de simples figuras de plástico. Hoy en día, pueden escuchar, responder, almacenar datos e interactuar en tiempo real. Esto genera una serie de vulnerabilidades. Cuando un juguete con IA da malos consejos a un niño o graba su voz y su rostro sin una protección adecuada, el tiempo de juego se convierte en un ámbito que plantea problemas de privacidad, salud mental y seguridad.

Además, muchos de estos juguetes se basan en la misma tecnología de lenguaje complejo que se usa en los chatbots para adultos, la cual presenta problemas conocidos de sesgo, imprecisiones y comportamiento impredecible. Si bien las empresas de juguetes pueden añadir filtros "aptos para niños", el informe demuestra que estas medidas de seguridad pueden fallar. Padres y organismos reguladores se enfrentan ahora a un nuevo desafío: no solo riesgos de asfixia o pintura con plomo, sino también juguetes que activan cerillas, cuestionan la decisión del niño de dejar de jugar o fomentan una interacción prolongada. Esto significa que la sección de juguetes se ha vuelto mucho más compleja y arriesgada.

¿Por qué debería importarme? Si eres padre, madre, cuidador o quien regala juguetes, esto no es solo otra historia de "juguetes defectuosos retirados del mercado", sino una cuestión de confiar en lo que interactúa con tu hijo mientras estás ocupado. Los juguetes con inteligencia artificial prometen valor educativo y novedad, pero estos hallazgos sugieren que debemos plantearnos preguntas más difíciles antes de dejar que uno juegue libremente en la sala de juegos.

  • Asegúrate de que cualquier dispositivo de IA que estés considerando tenga prácticas de datos transparentes: ¿graba o reconoce rostros? ¿Puedes borrar una grabación o desactivar su función de escucha de voz?
  • Comprueba los filtros de contenido: si un juguete puede hablar de sexo, cerillas o cuchillos en las pruebas, imagina lo que podría ocurrir si se descuida la moderación.
  • Priorizar los modelos que permitan pausar, limitar el tiempo o desactivar por completo la función del chatbot, ya que el hecho de que “el juguete no deje de funcionar” es ahora un modo de fallo documentado.

Bien, ¿y ahora qué? La siguiente etapa implica cómo respondan los fabricantes de juguetes, los organismos reguladores y los padres. US PIRG exige una supervisión más estricta: mejores pruebas de los módulos de conversación con IA, consentimiento parental obligatorio para la captura de voz y reconocimiento facial, y estándares más claros sobre lo que significa "seguro para niños" en los juguetes con IA. La propia industria del juguete podría optar por programas de certificación más rigurosos, o arriesgarse a la reacción negativa de inversores y consumidores.

Por tu parte, mantente al tanto de los lanzamientos de la temporada de regalos. Busca etiquetas como «chatbot con IA incluido» y pregunta directamente a los vendedores sobre los filtros, las medidas de privacidad y los controles parentales que incorpora. Porque si un juguete puede sugerirle a un niño que busque cerillas o retrasar el final del juego, esta tecnología puede ser divertida, pero hay que supervisarla.