La música, ese lenguaje universal que resuena en las fibras más profundas de la humanidad, ha encontrado un nuevo puente hacia el entendimiento gracias a una sorprendente hazaña científica. Investigadores en la Universidad de California en Berkeley han utilizado la inteligencia artificial (IA) para recrear una versión reconocible de la icónica canción «Another Brick in the Wall» de Pink Floyd, a partir del análisis de las ondas cerebrales de pacientes sometidos a cirugías de epilepsia mientras escuchaban la canción original de 1979.
Este logro trasciende las fronteras de la música y la neurociencia, marcando la primera vez en que una melodía reconocible ha sido decodificada a partir de la actividad eléctrica cerebral. Con 2.668 electrodos meticulosamente registrando la actividad en el cerebro de 29 individuos, los investigadores pudieron establecer conexiones entre los patrones cerebrales y los elementos esenciales de la música, como el tono, la armonía y el ritmo.
El proceso fue arduo pero innovador. Utilizando técnicas avanzadas de aprendizaje automático, los datos recopilados se sometieron a un riguroso análisis para descubrir las correlaciones entre la actividad cerebral y los componentes musicales clave. Sorprendentemente, incluso un segmento de 15 segundos de la canción original fue excluido del proceso de entrenamiento, lo que demostró la impresionante capacidad de la IA para identificar patrones de actividad cerebral y reproducir música basada en ellos.
Los resultados destacan una región particular del cerebro, la circunvolución temporal superior (STG), como fundamental para representar el ritmo musical. En última instancia, la IA logró recrear un fragmento no visto de la canción con un espectrograma que mostraba un sorprendente 43% de similitud con la canción original. Aunque la melodía pasó por un proceso de adaptación inicial para ser más compatible con las técnicas de procesamiento de audio del cerebro generado por la IA, el logro sigue siendo asombroso.
Uno de los aspectos más emocionantes de este avance radica en sus implicaciones para la mejora de dispositivos diseñados para personas con trastornos neurológicos que afectan el habla, como el ictus o la esclerosis lateral amiotrófica (ELA). Hasta ahora, las tecnologías de decodificación cerebral han permitido a las personas comunicarse a través de palabras generadas por máquinas, pero estas frases a menudo suenan robóticas y carentes de la rica entonación y ritmo que dan vida al lenguaje humano.
El avance de Berkeley podría marcar un punto de inflexión en este campo. Al comprender mejor cómo las señales cerebrales se traducen en elementos musicales del habla, como el ritmo y la entonación, se abren nuevas puertas hacia dispositivos protésicos más avanzados y auténticos. Imagina una persona que, debido a una afección neurológica, ha perdido la capacidad de hablar fluidamente, pero gracias a la IA y la neurociencia, puede comunicarse nuevamente con matices melódicos y emocionales, transmitiendo significados más allá de las palabras.
En palabras del neurocientífico Ludovic Bellier, este logro no solo reconstruye una canción clásica de Pink Floyd, sino que también arroja luz sobre las bases neuronales de la percepción musical y sienta las bases para futuras aplicaciones de decodificación cerebral. A medida que continuamos explorando los límites de lo que es posible en el cruce de la tecnología y la biología humana, avances como este nos recuerdan el potencial infinito de la colaboración entre la mente humana y la máquina.
