No es solo Grok: las tiendas de aplicaciones de Apple y Google están infestadas de aplicaciones de IA que nudifican

Solemos pensar en la App Store de Apple y la Google Play Store como "jardines amurallados" digitales: espacios seguros y seleccionados donde el contenido peligroso o sórdido se filtra mucho antes de que llegue a nuestras pantallas. Pero un nuevo y desalentador análisis del Proyecto de Transparencia Tecnológica (TTP) sugiere que estos muros tienen serias grietas. El informe revela una realidad inquietante: ambas tiendas principales están actualmente infestadas de docenas de aplicaciones de "desnudez" impulsadas por IA. No se trata de herramientas oscuras ocultas en la red oscura; están ahí, a la vista de todos, permitiendo a cualquiera tomar una foto inocente de una persona y desnudarla digitalmente sin su consentimiento.

A principios de este año, el debate sobre esta tecnología alcanzó un punto álgido cuando se descubrió que Grok, la IA de Elon Musk, generaba imágenes sexualizadas similares en la plataforma X. Si bien Grok se convirtió en el foco de la indignación pública, la investigación de TTP demuestra que fue solo la punta del iceberg. Una simple búsqueda de términos como "desvestirse" o "desnudarse" en las tiendas de aplicaciones muestra una larga lista de software diseñado específicamente para crear pornografía deepfake no consensuada.

La escala de esta industria es francamente asombrosa.

No hablamos de unos cuantos desarrolladores deshonestos que se escapan de la vista. Según los datos, estas aplicaciones han acumulado en conjunto más de 700 millones de descargas. Han generado unos ingresos estimados de 117 millones de dólares. Y aquí está la incómoda verdad: como Apple y Google suelen cobrar una comisión por las compras y suscripciones dentro de la aplicación, en realidad se están beneficiando de la creación de imágenes sexuales no consensuadas. Cada vez que alguien paga por "desvestir" una foto de un compañero de clase, un compañero de trabajo o un desconocido, los gigantes tecnológicos se llevan su parte.

El coste humano de esta tecnología es incalculable. Estas herramientas convierten fotos comunes en armas. Una selfie de Instagram o una foto de un anuario pueden ser manipuladas para convertirlas en material explícito y usarlas para acosar, humillar o chantajear a las víctimas. Grupos de defensa llevan años denunciando esto, advirtiendo que la "desnudez artificial" es una forma de violencia sexual que afecta desproporcionadamente a mujeres y, terriblemente, a menores.

Entonces ¿por qué siguen ahí?

Tanto Apple como Google tienen políticas estrictas, en teoría, que prohíben el contenido pornográfico y de explotación. El problema es su aplicación. Se ha convertido en un juego digital de Whac-A-Mole. Cuando se publica un informe de alto perfil, las empresas pueden prohibir algunas aplicaciones específicas, pero los desarrolladores a menudo simplemente modifican el logotipo, cambian ligeramente el nombre y vuelven a subir el mismo código una semana después. Los sistemas de revisión automatizados parecen completamente incapaces de seguir el ritmo de la rápida evolución de la IA generativa.

Para los padres y los usuarios habituales, esto es una llamada de atención. Ya no podemos asumir que solo porque una aplicación esté en una tienda "oficial" sea segura o ética. A medida que las herramientas de IA se vuelven más potentes y fáciles de acceder, las protecciones en las que confiábamos antes están fallando. Hasta que los reguladores intervengan, o hasta que Apple y Google decidan priorizar la seguridad sobre las comisiones, nuestra imagen digital seguirá siendo incómodamente vulnerable.

La publicación No es solo Grok: las tiendas de aplicaciones de Apple y Google están infestadas de aplicaciones de inteligencia artificial que nudifican apareció primero en Digital Trends .