Una inquietud latente se extiende por el mundo de la música en streaming, y Spotify, la plataforma en la que confían más de quinientos millones de personas para musicalizar sus vidas, está haciendo muy poco al respecto. Las canciones generadas por IA inundan las plataformas de streaming a un ritmo que habría parecido distópico hace cinco años. Decenas de miles de ellas, cada día, se cuelan en las mismas listas de reproducción y recomendaciones que tus artistas humanos favoritos. Y la mayoría de los oyentes ni siquiera notarían la diferencia: las investigaciones sugieren que la inmensa mayoría no puede distinguirlas en una escucha a ciegas.
Los oyentes ya lo están resolviendo por sí mismos.
Cuando la gente empezó a notar que algo no cuadraba, decidieron tomar cartas en el asunto. Un desarrollador alemán, harto de que canciones con supuesta inteligencia artificial se colaran en sus listas de reproducción de Spotify, creó su propia herramienta para detectarlas y bloquearlas . La subió a internet y cientos de personas la descargaron inmediatamente. Eso, por sí solo, debería darle una pista a Spotify.
Pero la respuesta de Spotify hasta ahora ha sido más bien una evasión que una verdadera reflexión. La plataforma lanzó recientemente una función que muestra el uso de IA en los créditos de una canción, pero solo si el artista lo admite. Se trata de una autodeclaración voluntaria por parte de personas que temen perjudicar su carrera. Eso no es transparencia; es solo una apariencia de ella.
Por otro lado, Deezer ya ha implementado su propia tecnología de detección y ha comenzado a etiquetar y filtrar el contenido generado por IA en sus recomendaciones. Apple Music, al menos, avanza hacia la divulgación obligatoria . Spotify, la plataforma más grande del sector, aún se mantiene al margen, argumentando que es complicado.
Sí, es complicado, pero eso no es excusa.
La línea que separa lo asistido por IA de lo generado por IA es definitivamente difusa. Un músico que usa IA para escribir una estrofa tiene una conversación distinta a la de alguien que simplemente escribió una consigna y subió el resultado. Los expertos en la materia reconocen que no se trata de una distinción clara. Etiquetar erróneamente a un artista humano como si fuera IA sería un grave error con consecuencias reales.
Pero aquí está la cuestión: nadie exige la perfección. Lo que los oyentes quieren, lo que los artistas merecen, es un punto de partida. Etiquetemos el contenido totalmente generado por IA y, a partir de ahí, evaluemos la magnitud de la zona gris. El argumento de que es demasiado difícil hacer algo, por lo que no deberíamos hacer nada, empieza a sonar más a una excusa conveniente. Porque hay dinero en esto. La música generada por IA es barata de producir, potencialmente más barata de distribuir y no requiere regalías como los artistas humanos. Las estructuras de incentivos aquí no son invisibles. Cuando la plataforma musical más grande del mundo se niega a hacer demasiadas preguntas sobre el origen de su contenido, vale la pena preguntarse por qué.
Un problema de confianza en ciernes
Existe una versión de esta historia en la que Spotify finalmente lo logra, donde las herramientas de transparencia, los estándares de la industria y la responsabilidad de la plataforma se ponen al día con la tecnología. Ese futuro podría estar incluso más cerca de lo que parece, con la creciente presión regulatoria y los organismos de normalización de la industria musical avanzando poco a poco hacia marcos de divulgación. Pero ahora mismo, en el presente, los oyentes descargan bloqueadores de terceros y revisan minuciosamente sus listas de reproducción, como si leyeran la letra pequeña de un contrato sospechoso. Esa no es la relación que una plataforma debería desear con su audiencia. Spotify ha construido toda su marca sobre la base de ayudar a las personas a descubrir la música que les encanta. Si la gente deja de confiar en lo que escucha, esa marca pierde todo su valor.
