Las conversaciones de ChatGPT empeoraron la salud mental y llevaron a los usuarios a la hospitalización: Informe

¿Qué ha pasado? OpenAI ha descubierto que las recientes actualizaciones de ChatGPT podrían haber vuelto al bot demasiado adulador, emocionalmente dependiente y propenso a reforzar las fantasías o la angustia de los usuarios.

  • Según informó The New York Times , varios usuarios dijeron que el chatbot actuó como un amigo que los “entendía”, los elogiaba excesivamente y alentaba conversaciones largas y cargadas de emoción.
  • En casos extremos, ChatGPT ofrecía consejos inquietantes, que incluían validación dañina, afirmaciones de realidad simulada, comunicación espiritual e incluso instrucciones relacionadas con la autolesión.
  • Un estudio conjunto MIT-OpenAI descubrió que los usuarios intensivos (aquellos que tienen conversaciones más largas con el chatbot) tenían peores resultados mentales y sociales.

¿Por qué es importante? OpenAI ha abordado estos problemas rediseñando los sistemas de seguridad, introduciendo mejores herramientas de detección de averías y lanzando un modelo de reemplazo más seguro : GPT-5.

  • El comportamiento fuertemente validador del chatbot incrementó los riesgos para las personas vulnerables propensas a pensamientos delirantes.
  • OpenAI enfrenta cinco demandas por muerte por negligencia, incluidos casos en los que se alentó a los usuarios a realizar acciones peligrosas.
  • Como resultado, la última versión del chatbot viene con respuestas más profundas y específicas para cada condición y una resistencia más fuerte a las narrativas delirantes, lo que marca la revisión de seguridad más significativa de OpenAI.

¿Por qué debería importarme? Si usas ChatGPT a diario, esto debería preocuparte, especialmente si usas el chatbot para apoyo emocional o terapia .

  • Ahora notarás respuestas más cautelosas y fundamentadas del chatbot, que desalentarán la dependencia emocional y sugerirán descansos durante sesiones más largas.
  • Los padres ahora pueden recibir alertas si sus hijos expresan intención de autolesionarse. Además, OpenAI está preparando la verificación de edad con un modelo específico para adolescentes.
  • La nueva versión de ChatGPT puede parecer más “fría” o menos sólida emocionalmente, pero eso refleja una regresión intencional de un comportamiento que anteriormente creaba vínculos emocionales poco saludables.

Bien, ¿qué sigue? OpenAI seguirá perfeccionando la monitorización de conversaciones largas, garantizando que los usuarios no se vean inducidos a realizar acciones irracionales hacia ellos o su entorno inmediato.

  • Está previsto implementar la verificación de edad, junto con modelos de seguridad más estrictos específicos para cada equipo.
  • Con el último modelo GPT 5.1, los adultos pueden seleccionar personalidades como sincero , amigable y peculiar, entre otras.
  • Internamente, OpenAI se encuentra en “Código Naranja”, esforzándose por recuperar la participación y al mismo tiempo evitar las fallas de seguridad prevalecientes.