¿Esperas que la IA pueda solucionar tus problemas amorosos? La historia de este actor demuestra lo contrario.

Si esperas que la IA pueda salvar tu vida amorosa , el último experimento de Rhik Samadder es probablemente el baño de realidad que necesitas.

En su último artículo en primera persona, Samadder decidió dejar que la IA tomara las riendas de su vida amorosa como parte de un experimento más amplio de seis semanas. Esto implicó delegar partes de su rutina diaria a chatbots de IA , incluyendo la redacción de su perfil de citas, la ayuda con los mensajes, la elección de su atuendo e incluso sugerencias de conversación durante una cita real. Y el resultado fue menos un avance romántico y más un desastre social.

¿Qué tan malo podría ser?

La primera señal de alerta apareció pronto. Samadder le pidió a la IA que escribiera su perfil de citas, y esta generó una descripción ingeniosa y original sobre ser un "tipo creativo con mentalidad de nerd" y traer "giros inesperados a la trama". Esto inmediatamente levantó sospechas, pero la incomodidad aumentó cuando el chatbot comenzó a dirigir la interacción.

Cabe destacar que Samadder fue sincero con su cita sobre el experimento. Le explicó que la IA le ayudaría a escribir sus mensajes, elegir la fecha y sugerir temas de conversación. Ella aceptó, lo cual ya demuestra una generosidad mayor que la de la mayoría.

El verdadero problema no eran las palabras. Era la vibra.

Una vez que comenzó la cita, los consejos del chatbot se volvieron terriblemente incómodos. Samadder elogió el cabello de su cita diciendo que tenía "pura energía A24", y luego tuvo que girarse y pedirle a la IA que le explicara qué significaba eso cuando ella pareció confundida. Más tarde, intentó otra frase sugerida por la IA sobre el pionero de la televisión John Logie Baird viviendo en su vecindario, que nuevamente fracasó.

Su cita enseguida descubrió el problema. Le dijo que los mensajes generados por IA sonaban emocionalmente inteligentes, pero carecían de autenticidad . Incluso lo resumió a la perfección diciendo: «Pareces un terapeuta inhabilitado».

Por lo tanto, la conclusión es clara. La IA puede imitar la confianza, pero no puede crear química.