Este sitio utiliza cookies propias y de terceros para mejorar tu experiencia en la página. Para habilitar o restringir las cookies activas u obtener más información, haz clic en cookie settings.

Aceptar todas las cookies
Runroom LAB: ruiditos y maquinitas Runroom LAB: ruiditos y maquinitas
Artículo

LAB: ruiditos y maquinitas

Runroom lab

En el LAB de mayo hablamos de música, inteligencia artificial y creatividad. Para adentrarnos en este ámbito tan estimulante, contamos con Juan Alonso y Edu Noeda. En esta ocasión además probamos un formato especial porque tras la charla tuvo lugar un taller de 2 horas, es decir, que tuvimos una mañana apasionante hablando y aprendiendo sobre: 

  • La música, presente desde el inicio de la Humanidad, con costumbres específicas según las culturas, y su gran influencia en las personas.  

  • El papel de la tecnología, de la inteligencia artificial y del Machine Learning aplicados a la creatividad en el mundo de la música, y su continua evolución. De hecho, como comentaba Juan Alonso, varias de las herramientas y fuentes mostradas en el LAB son referencias de los últimos meses que ya han sufrido variaciones desde que comenzamos a preparar el evento hasta el día de su realización. 

Conociendo a los ponentes

Siempre buscando el punto de unión entre humanismo y tecnología, Juan Alonso es cofundador de Both Rocks! y  Liquid Squad, la antigua Tecnilógica, y compagina la dirección de diferentes proyectos con la supervisión del laboratorio de I+D sobre IOT, nuevos interfaces, microcontroladores y tratamiento de imagen y sonido. Realizó un master en Sound and Music Computing en la Aalborg University de Dinamarca para aprender y profundizar sobre esta disciplina que incluye parte de analítica y parte generativa. 

Por su parte, Edu Noeda tiene el foco puesto en la transformación digital, la innovación y el desarrollo omnicanal. Además de ser también cofundador de Both Rocks! y socio de Liquid Squad, la antigua Tecnilógica, desempeña el rol de Technical Lead, Project Manager y Software Architect en Accenture Interactive. 

Music Information Retrieval, el Data Science de la música

¿Qué información podemos extraer de la música? Partiendo de esta pregunta iniciamos el primer bloque en el que vimos diferentes ejemplos de aplicaciones en las que la música o el sonido es clave para recuperar, categorizar y manipular información que muchas veces ni sabemos que está ahí: 

  • Aplicaciones de reconocimiento de audio. Como Shazam, un servicio que extrae una especie de huella dactilar sonora e identifica la canción que se busca, o BirdNET, que permite identificar aves a través del sonido que emiten y que se va nutriendo de grabaciones e información de los usuarios. 

  • Score following. Realiza una sincronización en vivo con la partitura de la música que se está reproduciendo y puede predecir la siguiente nota del intérprete. 

  • Sistemas de recomendación musical. Son sistemas desarrollados para clasificar música en función de los gustos y las preferencias de los usuarios y sugerirla. 

  • Ámbito de la salud. A través del sonido se puede extraer información sobre patologías, por ejemplo, según el tipo y el tono de tos.

  • Edición de sonido. Actualmente son muchas las herramientas que permiten aislar un sonido eliminando el ruido de fondo, crear distorsiones o eliminarlas. 

Como comentamos anteriormente, además de permitirnos analizar y extraer data, la tecnología aplicada a la música permite crear nuevos instrumentos, sonidos y melodías.

Generación de música y sonidos

Las redes neuronales artificiales son conjuntos de nodos, o neuronas artificiales, interconectadas entre sí a través de unos enlaces. Este tipo de sistemas aprenden a partir de ejemplos, sin reglas preestablecidas, y tienen como objetivo resolver problemas como lo haría el cerebro humano. Estas redes neuronales se utilizan para diferenciar sonidos y para generar sonidos nuevos a partir de lo que llamaríamos unas “semillas”, que pueden ser las notas iniciales de una melodía o unos segundos de audio.

Un gran ejemplo de red neuronal es la que Google anunció en enero para la identificación de aves por su canto, un sistema que fue entrenado a través de grabaciones y que, escuchando coros de diferentes aves a la vez, consigue separarlas y diferenciarlas. 

Por su parte, Juan Alonso nos mostró uno de sus proyectos, DDSP Timbre Transfer, un sistema capaz de aplicar el mismo timbre, tono y volumen de un sonido a otro, independientemente de que haya sido generado con un instrumento o voz. 

Otro de los ejemplos comentados en el LAB fue SymphonyNet, que genera música sinfónica a partir de un sonido o fragmento musical. 

Este ejemplo, como todos los que casos en que se acabe creando una nueva pieza musical, plantea inevitablemente varias dudas sobre autoría y valor de la creación: ¿quién es el autor de la nueva creación? ¿Es quién ha generado la semilla original, o los autores de las piezas que han usado para entrenar al sistema?

Al margen de los derechos de autor, surgieron varias dudas de diferentes  índole, desde la sostenibilidad y el gasto energético necesarios para usar ciertos sistemas, sobre la actualización de los códigos y de la experiencia ante acontecimientos sociales globales, (como ocurrió durante la pandemia), y la necesidad y el grado de intervención humana requeridos para alcanzar determinada calidad creativa. 

Adentrándonos en el mundo de los instrumentos, tratamos una nueva corriente que consiste en modificar instrumentos tradicionales y añadir nuevos elementos como teclas, cuerdas, etc, para conseguir nuevos sonidos. Como ejemplos tenemos la Hyper-hybrid flute de Daniel Chin,Ian Zhang y Gus Xia, y el laptop accordion de Aidan Meacham, Sanjay Kannan y Ge Wang desarrollado en la Universidad de Stanford.

El futuro de inteligencia artificial aplicada a la música

Para finalizar, Juan y Edu concluyeron que el mundo de la música se ve sometido a una constante evolución y es difícil hacer una predicción a largo plazo, por eso hay que trabajar en este ámbito enfocándonos en el corto y medio plazo. Para ellos, lo más estimulante es que a día de hoy nos encontramos ante una ventana de posibilidades en la que todo está por crear, todo está permitido y nada legislado. 

Es muy probable que las creaciones de hoy sean mucho más apreciadas y entendidas en el futuro, cuando se valoren con cierta distancia y se tenga en cuenta el contexto. Mientras tanto, solo nos queda entrenar la red neuronal y experimentar.

Y esto es lo que hemos hecho en este LAB, disfrutando como niños. ¡Muchas gracias por acompañarnos!

El próximo día 22 tendrá lugar una nueva edición de Runroom LAB titulado “Menos Metaverso y más Web3” en la que contaremos con Beatriz Martín Valcárcel. ¡Inscríbete y no te quedes sin tu plaza!

También te puede interesar:

02 Jun. 2022

Annachiara Sechi

Head of Communications

Agile Digital Intelligence