La “Ley contra el fraude con IA” protegerá la voz e imagen de las personas
Estados Unidos defiende a los artistas frente a la inteligencia artificial
La inteligencia artificial se está desarrollando a tal velocidad que ya existen herramientas gratuitas o de bajo coste que permiten suplantar la voz o la imagen de cualquier persona con asombrosa perfección. En el caso de los artistas musicales, las falsificaciones que se puedan hacer de su voz son un gravísimo problema, pudiéndoles ocasionar importantes daños económicos y morales.
Hace cuarenta años, Julio Iglesias lanzó su carrera internacional en Miami. Allí no solo se mudaron artistas como José Luis Rodríguez (El Puma), José José o Raphael, sino que las principales discográficas también eligieron la ciudad como centro de operaciones para Latinoamérica, convirtiendo así a Miami en la capital de la música latina.
Aunque cuatro décadas después el mercado y muchos de los problemas a los que se enfrentan los artistas sean completamente diferentes (muchos de ellos consecuencia del desarrollo tecnológico), Miami continúa siendo punta de lanza de la industria musical. Por este motivo, no sorprende que haya sido una congresista del 28º distrito de Florida, María Elvira Salazar, quien lidere la primera iniciativa legislativa en Estados Unidos contra la clonación no autorizada de la voz de los cantantes con inteligencia artificial.
El proyecto de ley, llamado oficialmente “No Artificial Intelligence Fake Replicas And Unauthorized Duplications Act” y conocido como “No AI FRAUD Act” (o “Ley contra el fraude de IA”), va más allá de la voz y del colectivo de artistas: protege el derecho individual de cualquier persona a su imagen y su voz “contra las falsificaciones generadas por inteligencia artificial”.
La amenaza de la IA es real y ya está aquí
De forma gratuita o a coste razonable, cada vez son más las herramientas de IA generativa que permiten la suplantación de personas, mediante la clonación de su voz, su imagen o de ambas. Esta tecnología se desarrolla con gran rapidez y, con ella, los usos abusivos.
El 19 de abril de 2023, Spotify y Apple Music anunciaron que eliminaban de sus plataformas la canción Heart On My Sleeve, creada con inteligencia artificial por un usuario de TikTok llamado ghostwriter977. Las voces de la canción eran idénticas a las de los canadienses Drake y The Weeknd. Si bien la letra era original, la canción se había producido alimentando modelos de audio con IA para copiar las voces, sin autorización de los artistas ni de sus sellos. En el momento de ser retirada, la canción acumulaba ocho millones y medio de reproducciones en TikTok y más de 250.000 en Spotify.
Poco después, The New York Times informó de que el usuario de TikTok había presentado la canción para optar a un Grammy en dos categorías: Mejor canción de rap y Canción del año. Tras la controversia generada, la Academia de Grabación rechazó la candidatura porque las voces no habían sido legalmente obtenidas ni autorizadas por los artistas o la discográfica y la canción no había sido publicada (y por tanto no estaba disponible comercialmente).
Ha sido uno de los casos más comentados, pero no el único: Bad Bunny vio su voz replicada en una canción que se hizo viral en TikTok y hemos podido escuchar a Johnny Cash cantando Barbie Girl. La lista de ejemplos es larga y sigue creciendo.
El proyecto de ley “No AI FRAUD Act” concede a los artistas un nuevo derecho exclusivo, que puede transmitirse o heredarse y que no caduca, se explote comercialmente en vida o no, hasta diez años después del fallecimiento del titular. E impone el consentimiento por escrito para la explotación comercial de la imagen o la voz de cualquier persona, con importantes sanciones económicas (desde 5.000 hasta 50.000 dólares) por publicar o distribuir una clonación sin dicho consentimiento.