La inteligencia artificial, sin duda, ha aportado muchas herramientas útiles a internet. Pero también ha dado un nuevo y escalofriante impulso a una de las formas más horribles de abuso . Informes recientes y hallazgos de organismos de control apuntan al mismo patrón repugnante: la IA generativa ayuda a los delincuentes a crear imágenes de abuso sexual infantil a mayor escala.
Estas situaciones son cada vez más realistas y se presentan en formatos que resultan más difíciles de gestionar para las plataformas, los organismos reguladores y los grupos de protección infantil.
Cómo la IA está empeorando la escala y haciendo que el contenido sea más extremo
En febrero, Reuters reveló que los informes sobre imágenes de abuso sexual infantil generadas por IA se habían duplicado con creces en los últimos dos años. Posteriormente, la Internet Watch Foundation afirmó haber identificado 8029 imágenes y vídeos de abuso sexual infantil generados por IA solo en 2025. Este sombrío panorama también quedó reflejado en un informe de Bloomberg sobre cómo la IA generativa está transformando el panorama del material de abuso sexual infantil en Estados Unidos.
Los investigadores ya no se limitan a imágenes y vídeos pornográficos generados por IA; también se enfrentan a imágenes manipuladas de niños reales e incluso a conversaciones con chatbots en las que, supuestamente, los delincuentes buscan consejos sobre acoso sexual o simulan abusos. Mientras tanto, las fuerzas del orden pierden tiempo intentando determinar si un niño en una imagen es real, ha sido alterado digitalmente o es completamente falso.
Los casos reales son cada vez más preocupantes.
El informe menciona un caso en Minnesota que involucra a William Michael Haslach, supervisor de comedor escolar y agente de tránsito, acusado de usar herramientas de IA para desnudar digitalmente a niños en fotos tomadas en su trabajo. Agentes federales identificaron a más de 90 víctimas y encontraron cerca de 800 imágenes de abuso generadas por IA en sus dispositivos. Esto demuestra cómo los delincuentes utilizan cada vez más fotos cotidianas de las redes sociales para crear material explícito.
Los investigadores están desbordados por el volumen de casos y las pistas erróneas.
La situación se está agravando rápidamente. Bloomberg informa que el NCMEC recibió 1,5 millones de informes de abuso sexual infantil vinculados a IA en 2025, frente a los 67.000 del año anterior y los 4.700 de 2023. Al mismo tiempo, los investigadores afirman que los sistemas de moderación automatizados están generando una avalancha de denuncias falsas, saturando a los equipos de trabajo, que ya están sobrecargados. Y cada llamada errónea supone una pérdida de tiempo que podría haberse dedicado a ayudar a un niño que se enfrenta a un peligro inminente.
