Más de un millón de usuarios están emocionalmente apegados a ChatGPT, pero hay un lado aún más oscuro
¿Qué ha sucedido? OpenAI ha implementado cambios en la forma en que ChatGPT gestiona conversaciones delicadas cuando las personas recurren a él en busca de apoyo emocional . La compañía ha actualizado su especificación de modelo y el modelo predeterminado, GPT-5 , para reflejar cómo ChatGPT gestiona conversaciones sensibles relacionadas con psicosis/manía , autolesiones y suicidio, y dependencia emocional del asistente.
Esto es importante porque: la dependencia emocional impulsada por la IA es real, y los usuarios forman vínculos unilaterales con los chatbots.
- OpenAI estima que aproximadamente el 0,15% de los usuarios activos semanales muestran signos de apego emocional al modelo y el 0,03% de los mensajes apuntan al mismo riesgo.
- Esa misma cifra del 0,15% se aplica a las conversaciones que indican planificación o intención suicida, mientras que el 0,05% de los mensajes muestran ideación suicida.
- Si se escala a la enorme base de usuarios de ChatGPT, eso significa que más de un millón de personas forman vínculos emocionales con la IA.
- OpenAI reporta importantes mejoras tras la actualización. Las respuestas indeseables en estos dominios se redujeron entre un 65 % y un 80 %, y los resultados negativos relacionados con la confianza emocional se redujeron aproximadamente un 80 %.
Cómo está mejorando : La versión actualizada introduce nuevas reglas en torno a la seguridad de la salud mental y las relaciones en el mundo real, lo que garantiza que la IA responda con compasión sin pretender ser un terapeuta o un amigo.
- OpenAI trabajó con más de 170 expertos en salud mental para reformular el comportamiento del modelo, agregar herramientas de seguridad y ampliar la orientación.
- GPT-5 ahora puede detectar signos de manía, delirios o intenciones suicidas y responde de manera segura reconociendo los sentimientos mientras dirige gentilmente a los usuarios hacia ayuda en el mundo real.
- Una nueva regla garantiza que ChatGPT no actúe como un compañero ni fomente la dependencia emocional; en cambio, refuerza la conexión humana.
- El modelo ahora puede priorizar herramientas confiables o recursos expertos cuando estos se alinean con la seguridad del usuario.
¿Por qué debería importarme? Las cuestiones emocionales y éticas no solo afectan a los adultos que establecen vínculos con los chatbots ; también afectan a cómo la IA interactúa con los niños, quienes quizá no comprendan del todo su impacto.
- Si alguna vez confiaste en ChatGPT durante un momento difícil, esta actualización trata sobre garantizar tu seguridad emocional.
- Ahora, ChatGPT estará más en sintonía con las señales emocionales y ayudará a los usuarios a encontrar ayuda en el mundo real en lugar de reemplazarla.
