El uso excesivo de ChatGPT puede crear dependencia emocional, según un estudio
OpenAI parece estar anunciando nuevos modelos de IA cada semana para mejorar su chatbot ChatGPT para el beneficio de sus 400 millones de usuarios . Sin embargo, la facilidad que proporciona la herramienta de IA parece demostrar que es posible tener demasiado de algo bueno.
La empresa de inteligencia artificial ahora está profundizando en las posibles ramificaciones psicológicas que ChatGPT podría tener en sus usuarios. OpenAI ha publicado los resultados de un estudio de dos partes realizado junto con el MIT Media Lab, que descubrió una conexión entre el mayor uso del chatbot ChatGPT y el aumento de los sentimientos de soledad de los usuarios.
Cada organización realizó un estudio independiente y luego recopiló los resultados hasta llegar a una conclusión consolidada. El estudio de OpenAI examinó durante un mes "más de 40 millones de interacciones ChatGPT", que no incluyeron la participación humana para mantener la privacidad del usuario. Mientras tanto, el MIT observó que aproximadamente 1000 participantes utilizaron ChatGPT durante 28 días. Actualmente, los estudios aún no han sido revisados por pares.
El estudio del MIT profundizó en diferentes funciones de uso que podrían afectar la experiencia emocional de los usuarios al interactuar con ChatGPT, incluido el uso de texto o voz. Los resultados encontraron que cualquiera de los medios tenía el potencial de provocar soledad o afectar la socialización de los usuarios durante el tiempo del estudio. La inflexión de la voz y la elección del tema también fueron un importante punto de comparación.
Un tono neutro utilizado en el modo de voz de ChatGPT tenía menos probabilidades de provocar un resultado emocional negativo para los participantes. Mientras tanto, el estudio observó una correlación entre los participantes que tenían conversaciones personales con ChatGPT y una mayor probabilidad de sentirse solos; sin embargo, estos efectos fueron de corto plazo. Aquellos que usaban el chat de texto incluso para conversar sobre temas generales experimentaron mayores casos de dependencia emocional del chatbot.
El estudio también observó que aquellos que informaron ver ChatGPT como un amigo, y aquellos que ya tenían una propensión a un fuerte vínculo emocional en las relaciones, tenían más probabilidades de sentirse más solos y más dependientes emocionalmente del chatbot mientras participaban en el estudio.
El estudio de OpenAI agregó contexto adicional, y sus resultados señalaron en general que interactuar con ChatGPT con fines emocionales era poco común. Además, el estudio encontró que incluso entre los usuarios habituales que implementaron la función Modo de voz avanzado en el chatbot y eran más propensos a responder que consideraban a ChatGPT como un amigo, este grupo de participantes experimentó bajas reacciones emocionales al interactuar con el chatbot.
OpenAI concluyó que su intención con estos estudios es comprender los desafíos que pueden surgir debido a su tecnología, así como poder establecer expectativas y ejemplos de cómo se deben utilizar sus modelos.
Si bien OpenAI sugiere que su estudio basado en interacciones simula los comportamientos de personas reales, más de unos pocos humanos reales han admitido en foros públicos, como Reddit , que usan ChatGPT en lugar de acudir a un terapeuta con sus emociones.