Reciba actualizaciones gratuitas de inteligencia artificial
Te enviaremos un Resumen diario de myFT correo electrónico redondeando lo último Inteligencia artificial noticias cada mañana.
Las relaciones matemáticas sustentan la disposición de las notas en una composición, y eso hace que la música esté particularmente abierta a las herramientas impulsadas por IA, a las que se les puede enseñar a reconocer y crear melodías y ritmos. Estas herramientas se están extendiendo a un ritmo acelerado en todos los niveles de la industria de la música, desde plataformas de transmisión y sellos discográficos hasta músicos y productores. Su adopción está provocando ansiedad por la mecanización, pero también entusiasmo por su potencial transformador.
Aplicaciones de la IA en la música
RECOMENDACIONES DE TRANSMISIÓN
Los servicios de transmisión como Spotify usan IA para mapear los hábitos de escucha de sus usuarios. Al desglosar los gustos de una persona según el tempo o el estado de ánimo de su música favorita, los algoritmos de aprendizaje profundo pueden crear recomendaciones personalizadas para otras canciones. También se analizan las tendencias generales de escucha para personalizar las listas de reproducción para los usuarios. Las redes sociales y los sitios de Internet se rastrean en busca de palabras clave sobre canciones para crear perfiles sobre cómo las personas las escuchan. Por ejemplo, a una canción se le puede asignar una calificación de tristeza, que luego se puede usar para relacionarla con una persona a la que le gustan las canciones tristes.
Los escépticos se quejan de que estas recomendaciones impulsadas por algoritmos convierten a los oyentes en autómatas. Pero su función es abrir enormes bibliotecas de canciones, como el catálogo de Spotify de más de 70 millones de pistas, que de otro modo serían innavegables para los suscriptores. Los algoritmos de aprendizaje automático también se utilizan para mejorar la calidad de la transmisión al monitorear la conexión a Internet de un usuario y adaptar la tasa de bits de audio en consecuencia.
ESCRITURA DE CANCIONES
Boomy es un generador de música de inteligencia artificial que afirma haber creado más de 16 millones de canciones originales desde su lanzamiento en 2019. En mayo, Spotify supuestamente eliminó miles de estas pistas de su catálogo luego de las acusaciones de que se estaban utilizando bots para inflar artificialmente los números de transmisión y los ingresos generados por estas canciones.
Al igual que las aplicaciones de la competencia, Boomy crea música basándose en indicaciones sencillas de los usuarios. Estos comandos son cada vez más sencillos a medida que avanza la tecnología. En mayo, Google lanzó MusicLM, una aplicación que crea música a partir de comandos escritos como “melodía relajante de violín” o “riff de guitarra distorsionado”.
La clonación vocal es otra área en la que la IA está haciendo olas. Las computadoras están entrenadas con grabaciones de las voces de las personas para crear una copia que se pueda hacer para pronunciar lo que el usuario elija. A menudo, esta será una yuxtaposición caprichosa en la que un Frank Sinatra generado por IA podría cantar “Toxic” de Britney Spears. Pero otros son actos de suplantación de identidad como “Heart on My Sleeve”, un dúo con las voces clonadas de Drake y The Weeknd que se volvió viral a principios de este año. Se eliminó de las plataformas de transmisión después de que el sello discográfico de los artistas, Universal Music Group, se quejara.
Los músicos tienen opiniones divididas. “Esta canción apesta”, fue la concisa respuesta de Nick Cave a la letra generada por el chatbot ChatGPT con IA en su estilo. Según Sting: “Los componentes básicos de la música nos pertenecen a nosotros, a los seres humanos”. Pero Grimes ha puesto a disposición copias clonadas de su voz para uso con licencia, mientras que David Guetta se sorprendió por la entusiasta respuesta de la audiencia cuando dejó caer una voz falsa de Eminem en un set de DJ a principios de este año.
PRODUCCIÓN MUSICAL
“La mayor implicación para la IA y la música es que la creación se volverá más fácil”, dice Jessica Powell, directora ejecutiva de la empresa emergente Audioshake, con sede en San Francisco. Utiliza una forma de tecnología de inteligencia artificial llamada separación de fuente de audio para identificar los componentes de una pieza musical y separarlos en los llamados tallos.
Audioshake se puede usar para remezclar canciones o convertirlas en instrumentales para bibliotecas de música que otorgan licencias de música para su uso en televisión, películas, comerciales y videojuegos. Permite que un compositor experimente con diferentes ideas, como si un vocalista femenino o masculino podría funcionar mejor en una pieza musical. Entre sus clientes se encuentra una aplicación de Realidad Aumentada llamada Minibeats que permite a las personas crear sonidos a través de expresiones faciales y movimientos físicos.
“El objetivo es hacer que el audio sea más editable, accesible, interactivo e inmersivo”, dice. Tales desarrollos son la última etapa de un proceso que comenzó con el surgimiento de la grabación multipista en la década de 1950, cuando las canciones comenzaron a ensamblarse a partir de partes grabadas por separado. Esa fue la era del sonido estéreo. El equivalente actual es el audio espacial, tal como lo promueve Apple Music, que crea la ilusión de experimentar la música desde todas las direcciones.
SELLOS DISCOGRÁFICOS
La industria de la música tradicional desconfía de la IA. Universal, el sello más grande del mundo, ha abogado por que se apliquen los derechos de autor a los datos utilizados para el aprendizaje automático, como las raíces vocales utilizadas para entrenar a las computadoras para hacer clones de voz.
Entretenimientos virtuales, como los avatares digitales en viaje de ABBA, han sido éxitos, pero los intentos de lanzar estrellas virtuales han tenido menos éxito. FN Meka, publicitado como el primer rapero generado por IA en firmar con un sello importante, fue eliminado en cuestión de días por Capitol Records en 2022 por estereotipos raciales.
Powell argumenta que los temores de que la IA se haga cargo de la música son exagerados. El talento humano seguirá siendo central incluso cuando el trabajo en sí mismo se vuelva cada vez más impulsado por la tecnología. “¿Cuál es la historia detrás de una canción?” ella dice. “¿Quién lo está interpretando? ¿Cuál es su contexto social o cultural más amplio? ¿Cómo interactúan con sus fans? Taylor Swift es mucho más que una canción de Taylor Swift”.