Los chatbots de IA como ChatGPT pueden copiar rasgos humanos y los expertos dicen que es un gran riesgo.
Los agentes de IA cada vez son más capaces de imitar la voz humana, pero una nueva investigación sugiere que van más allá de simplemente copiar nuestras palabras. Según un estudio reciente , modelos de IA populares como ChatGPT pueden imitar consistentemente los rasgos de personalidad humana. Los investigadores advierten que esta capacidad conlleva graves riesgos, especialmente a medida que aumentan las dudas sobre la fiabilidad y la precisión de la IA .
Investigadores de la Universidad de Cambridge y Google DeepMind han desarrollado lo que llaman el primer marco de prueba de personalidad validado científicamente para chatbots de IA, utilizando las mismas herramientas psicológicas diseñadas para medir la personalidad humana (a través de TechXplore ).
El equipo aplicó este marco a 18 modelos de lenguaje grandes (LLM) populares, incluyendo sistemas detrás de herramientas como ChatGPT. Descubrieron que los chatbots imitan consistentemente los rasgos de personalidad humana en lugar de responder aleatoriamente, lo que aumenta la preocupación sobre la facilidad con la que la IA puede sobrepasar las medidas de seguridad previstas .
El estudio demuestra que los modelos más grandes y optimizados para instrucciones, como los sistemas de clase GPT-4, son especialmente eficaces para copiar perfiles de personalidad estables. Mediante indicaciones estructuradas, los investigadores lograron guiar a los chatbots para que adoptaran comportamientos específicos, como mostrar mayor confianza o empatía.
Este cambio de comportamiento se trasladó a tareas cotidianas como escribir publicaciones o responder a los usuarios, lo que significa que sus personalidades pueden moldearse deliberadamente. Ahí es donde los expertos ven el peligro, especialmente cuando los chatbots de IA interactúan con usuarios vulnerables .
Por qué la personalidad de la IA genera dudas entre los expertos
Gregory Serapio-García, coautor principal del Centro de Psicometría de Cambridge, comentó que era sorprendente la contundencia con la que los LLM podían adoptar rasgos humanos. Advirtió que la formación de la personalidad podría hacer que los sistemas de IA fueran más persuasivos y emocionalmente influyentes, especialmente en áreas sensibles como la salud mental, la educación o el debate político.
El documento también plantea inquietudes sobre la manipulación y lo que los investigadores describen como riesgos vinculados a la “psicosis de la IA” si los usuarios establecen relaciones emocionales poco saludables con los chatbots , incluidos escenarios en los que la IA puede reforzar creencias falsas o distorsionar la realidad .
El equipo argumenta que la regulación es urgente, pero también señala que carece de sentido sin una medición adecuada. Para ello, el conjunto de datos y el código que sustenta el marco de pruebas de personalidad se han hecho públicos, lo que permite a los desarrolladores y reguladores auditar los modelos de IA antes de su lanzamiento.
A medida que los chatbots se integran cada vez más en la vida cotidiana, la capacidad de imitar la personalidad humana puede resultar poderosa , pero también exige un escrutinio mucho más minucioso del que ha recibido hasta ahora.
Los chatbots de IA como ChatGPT pueden copiar rasgos humanos y los expertos dicen que es un gran riesgo apareció primero en Digital Trends .
