Actualmente, la mayoría de nosotros obtenemos información mediante chatbots con inteligencia artificial y motores de búsqueda. Incluso Google nos muestra primero un resumen generado por IA antes de guiarnos hacia las fuentes de donde extrajo las respuestas.
Un nuevo estudio de Yale sugiere que, si bien las respuestas generadas por IA son rápidas, prácticas y fáciles de leer, también pueden influir en nuestras opiniones. Daniel Karell, profesor adjunto de sociología en Yale, y su equipo quisieron averiguar si leer resúmenes de eventos históricos escritos por IA ayudaba a las personas a aprender mejor que leer resúmenes escritos por humanos.
Para comprobarlo, se mostraron a los participantes breves resúmenes de acontecimientos históricos, algunos escritos por humanos y otros por herramientas de IA como ChatGPT, y luego se les preguntó sobre lo que recordaban.
¿El resultado? Las personas que leyeron resúmenes escritos por IA respondieron correctamente a más preguntas de forma sistemática.
¿Es que la IA es mejor que los humanos a la hora de difundir información?
Karell atribuye esto a la forma en que la IA presenta la información. "Es como si el modelo hubiera tomado Wikipedia y la hubiera hecho más legible", afirmó. Los resúmenes generados por la IA eran más fluidos, claros y fáciles de recordar, independientemente de si los participantes sabían que estaban leyendo contenido generado por IA.
Esto significa que, incluso cuando se les decía a las personas que el resumen había sido escrito por una IA, aun así aprendieron más de él que de la versión escrita por humanos.
¿Debería preocuparte esto?
Aquí es donde la cosa se pone interesante. En un artículo posterior publicado en PNAS Nexus , los mismos investigadores descubrieron que los resúmenes de IA no solo enseñan mejor, sino que también influyen en las opiniones políticas.
Si el resumen de la IA tenía una perspectiva liberal, los lectores terminaban adoptando opiniones más liberales. Una perspectiva conservadora tenía el efecto contrario. Los investigadores creen que esto sucede porque la IA no solo presenta los hechos, sino que los enmarca de una manera que resulta más lógica y convincente.
Las herramientas de IA se están convirtiendo en la forma habitual en que la gente aprende sobre historia y actualidad. Esto no es necesariamente malo. Pero es importante tener en cuenta que la herramienta que moldea lo que aprendemos también puede, de forma sutil, influir en lo que pensamos.
Al mismo tiempo, las alucinaciones provocadas por la IA siguen siendo un problema importante, y los resúmenes generados por IA pueden resultar aún más engañosos para los humanos. Un estudio realizado por investigadores del Instituto de Ciencias de la Información de la USC descubrió que los sistemas de IA pueden ejecutar campañas de propaganda con una mínima intervención humana.
Si a esto le sumamos la idea de que la IA puede ser más convincente que los humanos, da miedo pensar cómo estas herramientas pueden usarse para manipular el pensamiento y el razonamiento humanos, conduciéndonos hacia un mundo más fragmentado.
La publicación «Una investigación revela que los resúmenes de IA son mejores para el aprendizaje, incluso si pueden cambiar tus opiniones» apareció primero en Digital Trends .
