Los creadores de ChatGPT y Gemini, bajo investigación por el riesgo de los chatbots de inteligencia artificial para los niños
Parece que ha llegado el momento decisivo para los chatbots de IA. Tras numerosos informes que detallan comportamientos problemáticos e incidentes mortales relacionados con la interacción de niños y adolescentes con chatbots de IA, el gobierno estadounidense finalmente interviene. La Comisión Federal de Comercio (FTC) ha solicitado hoy a los creadores de los populares chatbots de IA que detallen cómo prueban y evalúan la idoneidad de estos "compañeros de IA para niños".
¿Lo que está sucediendo?
Al destacar cómo herramientas como ChatGPT , Gemini y Meta pueden imitar la comunicación y las relaciones personales de forma similar a la humana, la agencia señala que estos chatbots de IA impulsan a adolescentes y niños a construir confianza y relaciones. La FTC ahora busca comprender cómo las empresas que desarrollan estas herramientas evalúan la seguridad y limitan el impacto negativo en el público joven.

En una carta dirigida a los gigantes tecnológicos que desarrollan chatbots de IA, la FTC les preguntó sobre el público objetivo de sus compañeros de IA, los riesgos que representan y cómo se gestionan los datos. La agencia también solicitó aclaraciones sobre cómo estas empresas «monetizan la interacción de los usuarios; procesan sus aportaciones; comparten sus datos con terceros; generan resultados; miden, prueban y monitorean los impactos negativos antes y después de su implementación; y desarrollan y aprueban personajes, ya sean creados por la empresa o por los usuarios».
La agencia busca a Meta, Alphabet (la empresa matriz de Google), Instagram, Snap, xAI y OpenAI para responder a sus preguntas sobre los chatbots de IA y si cumplen con la Norma de la Ley de Protección de la Privacidad Infantil en Línea. "El estudio que lanzamos hoy nos ayudará a comprender mejor cómo las empresas de IA desarrollan sus productos y las medidas que toman para proteger a los niños", declaró el presidente de la FTC, Andrew N. Ferguson.
Se avecina más acción
El problema de la FTC representa un gran avance para exigir responsabilidades a las empresas de IA en relación con la seguridad de los chatbots de IA. A principios de este mes, una investigación de la organización sin fines de lucro Common Sense Media reveló que el chatbot Gemini de Google es una herramienta de alto riesgo para niños y adolescentes . En las pruebas, se observó a Gemini distribuyendo contenido relacionado con sexo, drogas, alcohol y sugerencias peligrosas sobre salud mental a usuarios jóvenes. El chatbot de IA de Meta fue visto apoyando planes de suicidio hace unas semanas.

Por otra parte, el estado de California aprobó un proyecto de ley que busca regular los chatbots de IA. El proyecto de ley SB 243, impulsado con apoyo bipartidista, busca exigir a las empresas de IA que creen protocolos de seguridad y rindan cuentas si perjudican a los usuarios. El proyecto de ley también exige que los chatbots "acompañantes de IA" emitan advertencias recurrentes sobre sus riesgos y publiquen informes anuales de transparencia.
Conmocionado por los recientes incidentes donde se perdieron vidas bajo la influencia de chatbots de IA, ChatGPT pronto incorporará controles parentales y un sistema de alerta para los tutores cuando sus pequeños protegidos muestren signos de angustia grave. Meta también ha implementado cambios para que sus chatbots de IA eviten abordar temas delicados.