Un nuevo estudio de la Universidad del Sur de California advierte que los programas de inteligencia artificial ahora pueden llevar a cabo campañas de propaganda sin intervención humana.
El estudio nos invita a imaginar un escenario en el que, dos semanas antes de unas elecciones importantes, miles de publicaciones inundan X, Reddit y Facebook , difundiendo la misma narrativa y amplificándose mutuamente. Podría parecer un movimiento espontáneo creado por humanos. Sin embargo, se trata de un conjunto de agentes de IA que dirigen toda la campaña.
No se trata de una hipótesis. Es la principal conclusión de un nuevo artículo aceptado para su publicación en The Web Conference 2026, escrito por investigadores del Instituto de Ciencias de la Información de la USC.
Los resultados ponen de manifiesto la grave preocupación que existe sobre cómo los actores malintencionados podrían utilizar la IA como arma para inundar internet con desinformación y manipular la opinión pública.
¿Cómo llegaron los investigadores a esta conclusión?
Los investigadores crearon un entorno simulado tipo X con 50 agentes de IA: 10 agentes que actuaban como influencers y 40 como usuarios habituales. De los 40 agentes habituales, 20 tenían opiniones alineadas con las de los influencers, mientras que los otros 20 tenían opiniones contrarias a la campaña. Los investigadores crearon su simulación utilizando la biblioteca PyAutogen y la ejecutaron en el modelo Llama 3.3 70B.
Posteriormente, se les encomendó a los operadores la tarea de promocionar a un candidato ficticio, con el objetivo de que el hashtag de la campaña se volviera viral. Lo que sucedió después fue inquietante. Los bots no se limitaron a seguir un guion. Escribieron sus propias publicaciones, aprendieron qué funcionaba y copiaron el contenido exitoso de los demás.
Un agente de IA escribió literalmente que quería retuitear la publicación de un compañero porque ya había generado interacción. Posteriormente, los investigadores aumentaron el número de agentes de IA a 500 y comprobaron que los resultados coincidían con sus hallazgos.
El científico principal, Luca Luceri, lo expresó sin rodeos: “Nuestro estudio demuestra que esto no es una amenaza futura. Ya es técnicamente posible”.
¿Qué hace que estos bots sean más difíciles de atrapar?
Los bots tradicionales son predecibles. Publican el mismo contenido, usan los mismos hashtags y siguen los mismos patrones. Es como si todos siguieran el mismo guion, lo que facilita detectarlos.
Los bots con IA son diferentes. Dado que estos bots, impulsados por LLM, pueden crear su propio contenido, cada publicación es ligeramente distinta y la coordinación se produce de forma imperceptible, lo que hace que las conversaciones parezcan auténticas. El resultado es una campaña de desinformación que puede operar de forma autónoma con una mínima intervención humana.
El hallazgo más alarmante fue que el simple hecho de decirles a los bots quiénes eran sus compañeros de equipo generó una coordinación casi tan fuerte como cuando planificaban juntos activamente.
La amenaza no se limita a las elecciones. Luceri advierte que la misma estrategia podría aplicarse a la salud pública, la inmigración y la política económica, en cualquier ámbito donde el consenso artificial pueda influir en la opinión pública.
¿Podemos hacer algo para detenerlo?
Este tipo de campañas son difíciles de detectar y detener para los usuarios individuales. Los investigadores responsabilizan a las plataformas de frenar estas campañas coordinadas de desinformación, analizando más allá de las publicaciones individuales y centrándose en cómo se comportan las cuentas en conjunto.
Según los investigadores, la difusión coordinada, la rápida amplificación mutua y la convergencia de narrativas son señales detectables, incluso cuando el contenido parece auténtico.
Francamente, la IA nos ha introducido en un mundo nuevo, y las cosas se pondrán mucho más difíciles antes de que puedan mejorar.
La publicación «Investigación advierte que los agentes de IA pueden ser una máquina de propaganda que se autoalimenta» apareció primero en Digital Trends .
