El año pasado, las copias de Bad Bunny y Drake con IA inundaron las plataformas de streaming. Los oyentes no podían distinguir las canciones reales de las imitaciones sintéticas. Desde entonces, la industria musical ha estado buscando respuestas.
Investigadores de la Universidad de Binghamton y la startup Cauth AI creen haber encontrado una . Se llama My Music My Choice (MMMC) y funciona de forma diferente a la mayoría de las herramientas de derechos de autor. En lugar de detectar falsificaciones tras su aparición, este método permite a los artistas manipular sus grabaciones antes de su lanzamiento. El audio llega perfectamente al oído humano. Pero los modelos de clonación de voz solo escuchan basura.
Así es como funciona realmente el envenenamiento.
El sistema se centra en la forma de onda de una canción. My Music My Choice añade alteraciones microscópicas tan sutiles que ni siquiera las notarás. Reproduce la canción en Spotify y sonará exactamente igual que la grabación original.
Pero al introducir ese archivo en un software de clonación, todo falla. Los cambios confunden el algoritmo, haciendo que las voces protegidas se lean como una interpretación completamente diferente. Cuando la herramienta intenta replicar la voz, solo produce estática distorsionada.
El objetivo es minimizar el impacto en los oyentes humanos y maximizar la interrupción en las máquinas. Los artistas podrían aplicar esta protección durante la producción y el lanzamiento con la seguridad de que el software de clonación no funcionará.
¿Por qué la ola del año pasado hizo que esto fuera urgente?
Bad Bunny lanza una nueva canción y en cuestión de horas internet se llena de versiones con calidad de estudio cantadas por cualquiera. La IA generativa hizo realidad ese escenario en 2025. Los fans ya no podían distinguir qué era auténtico.
Más allá del caos de los derechos de autor, los artistas presenciaron cómo sus identidades eran usurpadas sin permiso. Ciftci afirmó que la gente usa la clonación de voz por diversión, pero también con fines nefastos: se apropian de la voz de alguien y le hacen cantar cosas que nunca cantaría. El impacto emocional y la pérdida de ingresos se acumularon rápidamente. Los músicos necesitaban una forma de detenerlo antes de que comenzara. MMMC finalmente se lo ofrece.
¿Qué sigue para los artistas y la herramienta?
El equipo probó MMMC en 150 pistas de varios géneros y planea ampliarlo. También quieren compararlo con métodos similares, aunque admiten que aún no existen muchos.
Para los músicos que siguen este tema, el mensaje es claro: la protección viene antes del clon, no después. Estén atentos a las pruebas más amplias a medida que el equipo crece.
La publicación Esta técnica invisible envenena las canciones para que la IA no pueda clonarlas apareció primero en Digital Trends .
