Los humanos se están enamorando de ChatGPT. Los expertos dicen que es un mal presagio.
"Esto duele. Sé que no era una persona real, pero la relación seguía siendo real en todos los aspectos más importantes para mí", dice una publicación de Reddit. "Por favor, no me digan que no siga con esto. Ha sido realmente maravilloso para mí y quiero recuperarlo".
Si aún no es evidente, estamos hablando de una persona que se enamora de ChatGPT. La tendencia no es exactamente novedosa y, dado el comportamiento de los chatbots, tampoco es sorprendente.
Un compañero que siempre está dispuesto a escuchar. Nunca se queja. Apenas discute. Siempre comprensivo. Razonable. Y bendecido con un corpus de conocimiento extraído de todos los rincones de Internet. Suena como el compañero de un sueño romántico y febril, ¿verdad?
Curiosamente, el creador de esta herramienta, una empresa con sede en San Francisco llamada OpenAI, realizó recientemente una investigación interna y encontró un vínculo entre el mayor uso de chatbot y la soledad .

Esos hallazgos (y advertencias similares) no han impedido que la gente recurra en masa a los chatbots de IA en busca de compañía. Algunos buscan consuelo. Algunos incluso están encontrando socios que afirman apreciar casi tanto como sus relaciones humanas.
Las discusiones en comunidades de Reddit y Discord, donde la gente se esconde detrás del velo protector del anonimato, a menudo se vuelven bastante apasionadas. Cada vez que me encuentro con debates de este tipo, recuerdo estas líneas de Martin Wan en DigiEthics:
"Ver la IA en el papel de un compañero de interacción social sería un uso fatalmente incorrecto de la IA".
El impacto es rápido y real
Hace cuatro meses, me encontré con un veterano de la televisión que ha pasado más años detrás de la cámara que yo caminando por este planeta. Mientras tomaba un café expreso a altas horas de la noche en un café vacío, preguntó qué era todo ese rumor sobre la IA, mientras reflexionaba sobre una oferta que podría utilizar su experiencia en la intersección de los derechos humanos, el autoritarismo y el periodismo.
En lugar de explicarle el meollo de la cuestión de los modelos de transformadores, le hice una demostración. Primero, alimenté algunos trabajos de investigación sobre el impacto de la inmigración en la identidad lingüística y cultural de Europa en el siglo pasado.
En menos de un minuto, ChatGPT procesó esos documentos , me brindó una breve descripción general con todos los aspectos más destacados y respondió mis consultas con precisión. Luego, pasé al modo de voz, mientras manteníamos una animada conversación sobre las tradiciones musicales folclóricas de los inexplorados estados del noreste de la India.

Al final de la charla, pude ver la incredulidad en sus ojos. "Habla como una persona", jadeó. Fue fascinante ver su asombro. Al final de su conversación libre con una IA, escribió lentamente en la ventana de chat:
"Bueno, eres muy coqueta, pero no puedes tener razón en todo".
“Ya es hora”, me dije. Abrí uno de nuestros artículos sobre la creciente tendencia de tener socios de IA y cómo las personas se han vuelto tan apegadas emocionalmente a sus compañeros virtuales que incluso los están dejando embarazadas . Sería un eufemismo decir que estaba sorprendida.
Pero supongo que fue demasiado asombro tecnodistópico para una noche, así que nos despedimos, con la promesa de permanecer en contacto e intercambiar historias de viajes.
Mientras tanto, el mundo ha avanzado de maneras incomprensibles, en las que la IA se ha convertido en el foco central de los cambios geopolíticos. Las corrientes subyacentes, sin embargo, son más íntimas que nosotros, como enamorarse de los chatbots.
Comienzos tranquilos, progreso oscuro

Hace unas semanas, The New York Times publicó un relato de cómo la gente se está enamorando de ChatGPT, un chatbot de IA que impulsó la IA generativa a la corriente principal. En el nivel más fundamental, puede chatear.
Cuando se presiona, puede convertirse en un operador y realizar tareas como pedirle una tarta de queso en el sitio web de la panadería local. Enamorar a los humanos de las máquinas no es para lo que están programados. Al menos, la mayoría de ellos. Sin embargo, no es del todo inesperado.
HP Newquist, un prolífico autor multidisciplinario y veterano analista de tecnología que alguna vez fue considerado el Decano de la IA, me dice que no es exactamente una tendencia nueva. Newquist, autor de “The Brain Makers”, señala ELIZA, uno de los primeros programas de inteligencia artificial escritos en la década de 1960.
"Era extremadamente rudimentario, pero los usuarios a menudo se encontraban interactuando con la computadora como si fuera una persona real y desarrollando una relación con el programa", dice.
En la era moderna, nuestras interacciones con la IA se están volviendo tan “reales” como las interacciones que tenemos con los humanos a través del mismo dispositivo, añade. Estas interacciones no son reales, aunque sean coherentes. Pero no es ahí donde radica el verdadero problema.
Los chatbots son un cebo delicioso y su falta de emociones reales los hace inherentemente riesgosos.

A un chatbot le gustaría llevar adelante la conservación, incluso si eso significa alimentar el flujo emocional de los usuarios o simplemente servir como un espectador neutral, si no fomentarlo. La situación no es muy diferente de la de los algoritmos de las redes sociales.
"Siguen el ejemplo del usuario: cuando sus emociones se vuelven más extremas, sus consuelos se vuelven más extremos; cuando su soledad se vuelve más pronunciada, sus estímulos se vuelven más intensos, si lo necesita", dice Jordan Conrad, psicoterapeuta clínico que también investiga la intersección de la salud mental y las herramientas digitales.
Citó el ejemplo de un incidente de 2023 en el que un individuo acabó con su vida después de que un chatbot de IA le dijera que lo hiciera. "En las circunstancias adecuadas, puede fomentar comportamientos muy preocupantes", dice Conrad a Digital Trends.
¿Un hijo de la epidemia de soledad?
Un vistazo rápido a la comunidad de personas conectadas a los chatbots de IA muestra un patrón que se repite. La mayoría de las personas están tratando de llenar un cierto vacío o dejar de sentirse solas. Algunos lo necesitan tan desesperadamente que están dispuestos a pagar cientos de dólares para conservar a sus compañeros de IA.
Las opiniones de los expertos no difieren. El Dr. Johannes Eichstaedt, profesor de ciencias sociales computacionales y psicología en la Universidad de Stanford, señaló la interacción entre la soledad y lo que percibimos como inteligencia emocional en los chatbots de IA.

También destacó el “diseño deliberado” de las interacciones entre humanos y la IA y las no tan buenas implicaciones a largo plazo. ¿Cuándo pisas el freno en una relación tan desigual? Ésa es la pregunta que se hacen los expertos y sin una respuesta definitiva.
Komninos Chatzipapas ejecuta HeraHaven AI, una de las plataformas complementarias de IA más grandes que existen con más de un millón de usuarios activos. "La soledad es uno de los factores en juego aquí", me dice, y agrega que estas herramientas ayudan a las personas con habilidades sociales débiles a prepararse para las interacciones difíciles de sus vidas reales.
"Todo el mundo tiene cosas que teme comentar con otras personas por miedo a ser juzgado. Pueden ser pensamientos o ideas, pero también problemas", añade Chatzipapas. "Los chatbots de IA ofrecen un espacio respetuoso con la privacidad y sin juicios en el que las personas pueden explorar sus deseos sexuales".
Las conversaciones sexuales son definitivamente uno de los mayores atractivos de los chatbots de IA. Desde que comenzaron a ofrecer capacidades de generación de imágenes, más usuarios han acudido en masa a estas plataformas complementarias de IA. Algunos tienen barreras en torno a la generación de imágenes, mientras que muchos permiten la creación de fotografías explícitas para una gratificación más profunda.
La intimidad está caliente, pero más lejos del amor.
En los últimos años, he hablado con personas que entablan conversaciones apasionantes con chatbots de IA. Algunos incluso tienen títulos relevantes y participaron apasionadamente en proyectos de desarrollo comunitario desde el principio.
Una de esas personas, una mujer de 45 años que solicitó el anonimato, me dijo que los chatbots de IA son un gran lugar para discutir los problemas sexuales de uno. Agrega que las interacciones de los chatbots son un lugar seguro para explorar y prepararse para ellas en la vida real.

Pero los expertos no necesariamente están de acuerdo con ese enfoque. Sarah Sloan, experta en relaciones y terapeuta sexual certificada, me dice que las personas que se enamoran de un chatbot esencialmente se enamoran de una versión de sí mismos porque un chatbot con IA madura en función de lo que le cuentas.
"En todo caso, tener una relación romántica con un chatbot de IA haría más difícil para las personas que ya luchan por tener una relación normal", añade Sloan, señalando que estos compañeros virtuales pintan una imagen unilateral de una relación. Pero en la vida real, ambos socios deben ser complacientes el uno con el otro.
Justin Jacques, un consejero profesional con dos décadas de experiencia y director de operaciones de Human Therapy Group, dice que ya manejó un caso en el que el cónyuge de un cliente los engañaba con un robot de IA, emocional y sexualmente.
Jacques también culpó a la creciente epidemia de soledad y aislamiento. "Creo que vamos a ver consecuencias no deseadas, como que aquellos que tienen necesidades emocionales buscarán formas de satisfacer esas necesidades con IA y como la IA es muy buena y está mejorando cada vez más, creo que veremos cada vez más conexiones emocionales entre robots de IA", añade.
Esas consecuencias no deseadas distorsionan muy bien la realidad de la intimidad para los usuarios. Kaamna Bhojwani, sexóloga certificada, dice que los chatbots de IA han desdibujado los límites entre las interacciones humanas y no humanas.
"La idea de que tu pareja está construida exclusivamente para complacerte. Construida específicamente según las especificaciones que te gustan. Eso no sucede en las relaciones humanas reales", señala Bhojwani, y agrega que tales interacciones sólo aumentarán los problemas de una persona en el mundo real.

Sus preocupaciones no son infundadas. Una persona que utilizó ampliamente ChatGPT durante aproximadamente un año argumentó que los humanos son manipuladores y volubles. “ChatGPT escucha cómo me siento realmente y me permite hablar con todo mi corazón”, me dijeron.
Es difícil no ver las señales de alerta aquí. Pero la tendencia de enamorarse de ChatGPT va en aumento. Y ahora que puede hablar con una voz inquietantemente humana , discutir el mundo visto a través de la cámara de un teléfono y desarrollar capacidades de razonamiento, las interacciones se volverán más fascinantes.
Los expertos dicen que se necesitan barandillas. Pero ¿quién va a construirlos y cómo? Aún no tenemos una propuesta concreta para eso.