Si bien el progreso de la IA ha traído consigo una oleada de herramientas útiles , también está amplificando algunos de los rincones más oscuros de Internet.
Un nuevo informe de la IWF (Internet Watch Foundation) reveló un marcado aumento del material de abuso sexual infantil (CSAM) generado por IA en línea en 2025. El informe destaca el uso indebido a gran escala de la IA generativa. No se trata de un incremento aislado; es prueba de cómo se crea y distribuye este tipo de contenido.
¿Por qué esta noticia es alarmante?
Según la IWF, en 2025 se identificaron más de 8000 imágenes y vídeos de contenido abusivo generados por IA, lo que supuso un aumento del 14 % interanual. Pero lo más preocupante es el auge del contenido de vídeo. El informe señala que se ha producido un aumento de más de 260 veces en los vídeos generados por IA, muchos de los cuales se encuadran en la categoría más grave de abuso.
De hecho, alrededor del 65% de los vídeos analizados se clasificaron como del tipo más extremo. Esto pone de manifiesto la gravedad del problema.
Cómo la IA está reduciendo las barreras al contenido dañino
El mayor cambio ni siquiera radica en el volumen, sino en la accesibilidad.
Según los expertos, las herramientas de IA generativa facilitan considerablemente la creación de material de abuso realista. Algunos de estos sistemas pueden generar imágenes y vídeos de gran realismo, manipular fotografías existentes y producir contenido a gran escala con un mínimo esfuerzo. Esta combinación permite a los delincuentes crear y distribuir material dañino de forma más rápida y económica que nunca.
Anteriormente, este tipo de contenido peligroso solía asociarse con la web oscura . Sin embargo, el informe destacó que gran parte del material generado por IA se encuentra ahora en la web abierta, en lugar de estar confinado a rincones ocultos de internet. Esto dificulta su detección, complejiza la moderación y aumenta el riesgo de exposición.
Por qué no hay una solución fácil
El contenido generado por IA supone una nueva dificultad para las fuerzas del orden y las plataformas. Dado que el material puede ser totalmente sintético o derivarse de imágenes reales, rastrear su origen o identificar a las víctimas se vuelve mucho más complicado. Eliminar este tipo de contenido representa otro obstáculo. Con la rápida evolución de las herramientas de IA, las medidas de seguridad a menudo se ven obligadas a adaptarse.
