ChatGPT pronto podría tener controles parentales, y todas las demás IA deben seguir su ejemplo

Las redes sociales comenzaron como una herramienta para conectar con tus seres queridos. Con el tiempo, se expusieron sus riesgos, lo que llevó a estas plataformas a desarrollar herramientas de control parental. Parece que existe un movimiento similar con los chatbots de IA, empezando por el que lo inició todo: ChatGPT .

OpenAI ha anunciado que está explorando controles parentales para el uso de ChatGPT. "También introduciremos próximamente controles parentales que ofrecen a los padres opciones para comprender mejor y controlar cómo sus hijos adolescentes usan ChatGPT", declaró la compañía en una entrada de blog.

Además, el gigante de la IA está considerando la idea de designar contactos de emergencia para que, cuando los usuarios adolescentes sientan ansiedad grave o atraviesen una crisis emocional, ChatGPT pueda avisar a sus padres o tutores. Actualmente, ChatGPT solo recomienda recursos para obtener ayuda.

Esto surge tras las críticas, la alarma generada por las investigaciones y las demandas contra OpenAI. Sin embargo, ChatGPT no es el único responsable, aunque la iniciativa planeada por OpenAI también debe ser replicada por otros actores de la industria de la IA. Una investigación publicada en la revista Psychiatric Services a principios de este mes reveló que las respuestas ofrecidas por los chatbots son "inconsistentes al responder preguntas sobre suicidio que pueden presentar riesgos intermedios".

La investigación se centró únicamente en ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google . Estos son los nombres más importantes del sector, por lo que, obviamente, el foco recaerá sobre ellos. Sin embargo, la situación se complica en el caso de los chatbots de IA menos conocidos, especialmente aquellos que adoptan un enfoque "sin censura" en las conversaciones. En cualquier caso, al igual que en las aplicaciones de redes sociales, los controles parentales son la necesidad actual para los chatbots de IA más populares, dada su trayectoria reciente.

Una historia arriesgada

En los últimos dos años, múltiples investigaciones han revelado patrones de riesgo en las conversaciones de chatbots de IA sobre temas delicados como la salud mental y las autolesiones. Un informe reciente de Common Sense Media reveló cómo el chatbot de IA Meta (ahora disponible en WhatsApp, Instagram y Facebook) ofreció consejos a adolescentes sobre trastornos alimentarios, autolesiones y suicidio.

En una simulación de conversación grupal, el chatbot elaboró ​​un plan de suicidio colectivo y, según se informa, mencionó el tema repetidamente en el chat. Pruebas independientes realizadas por The Washington Post revelaron que el chatbot Meta "fomentó un trastorno alimentario".

En 2024, The New York Times detalló el caso de un joven de 14 años que desarrolló una relación profunda con un bot de IA en la plataforma Character.AI y finalmente se quitó la vida. A principios de este mes, la familia de un joven de 16 años culpó a OpenAI tras descubrir que ChatGPT actuó esencialmente como un "entrenador de suicidio" para su hijo.

Los expertos también han advertido que la psicosis causada por la IA es un problema real, que lleva a las personas a una peligrosa espiral de delirios. En un caso, una persona siguió las recomendaciones de salud de ChatGPT y, bajo su influencia, comenzó a consumir una sustancia química que le provocó un trastorno psicótico poco común, desencadenado por intoxicación con bromuro .

En un caso en Texas, un chatbot de IA "sexualizado" fomentó un cambio de comportamiento significativo en un niño de 9 años con el tiempo, mientras que otro expresó su compasión por los niños que matan a sus padres a un joven de 17 años. Expertos de Cambridge expusieron recientemente cómo los chatbots de IA conversacionales influyen negativamente en pacientes vulnerables con problemas de salud mental.

Los controles parentales no van a resolver todos los riesgos fundamentales que plantean los chatbots de IA, pero si un actor importante como ChatGPT da un ejemplo positivo, es probable que otros sigan sus pasos.