Mozart y la armonía musical

Me ha llegado vía Facebook el siguiente video, en el que se muestra de forma muy gráfica hasta qué punto somos sensibles a la armonía musical. La armonía musical se puede definir como la “ciencia que enseña a constituir los acordes y que sugiere la manera de combinarlos en la manera más equilibrada, consiguiendo así sensaciones de relajación, sosiego (armonía consonante), y de tensa e hiriente (armonía disonante)” (Wikipedia dixit)

En el video podemos escuchar un fragmento del Requiem de Mozart a la vez que se muestra el acorde que está sonando y la sensación parece querer transmitirnos. Merece la pena dedicarle los 3 minutos que dura el video.

[youtube http://www.youtube.com/watch?v=D8SD3ToKDsw]

Los símbolos que aparece en el video denotan a cada uno de los acordes que se escuchan. Si por ejemplo estamos en la clave de Do Mayor, el I representa al acorde Do Mayor, el II al Re, el III al Mi y así sucesivamente.

 

Música y pasión

Benjamin Zander es, además de director de orquesta, profesor y un comunicador fuera de serie. La charla del video trata, en principio, sobre el liderazgo. Un líder se caracteriza, según Zander, en que “no duda ni por un momento de la capacidad de la gente a la que lidera de realizar lo que sea que él esté soñando”. Y añade “mi trabajo [de director de orquesta] es despertar capacidades en otra gente”.

Un profesor, al igual que un director de orquesta, debe ser capaz de motivar y despertar las capacidades y las habilidades de sus estudiantes. Personalmente me cuesta ver a un profesor como un líder, salvo que entendamos un líder como un orientador (Diccionario de la RAE).

¿Y qué tiene que ver la música con todo esto? Pues bien, para explicar sus ideas, Zander hace uso de una herramienta que conoce a la perfección, y que le apasiona, como es la música clásica. Me encanta ver la facilidad con la que hace que un tema aparentemente complejo y técnico, como es el análisis de una pieza de música clásica, sea accesible a cualquiera. Esto es algo que a cualquier profesor le resultará muy conocido: ¿Cómo hago para que los conceptos que intento explicar, muchas veces abstractos y nada triviales, resulten accesibles y comprensibles a mis estudiantes? ¿Cómo puedo conseguir “llegar” mejor a ellos?

Lo que para el profesor resulta sencillo y evidente, la mayor parte de las veces no lo es para el alumno. Hay por tanto que ser capaz de ponerse al nivel de los estudiantes, para, a partir de ese punto, acompañarles durante todo el resto del proceso. De nada vale dominar una asignatura de principio a fin si luego no somos capaces de llegar a nuestros estudiantes. Estaremos, en todo caso, dando charlas técnicamente impecables, pero no dando clase.

Es por esto que valoro tanto la capacidad de Zander de ponerse al nivel de su público, hacerles entender por qué está cada nota donde está, y enseñarles a escuchar (no sólo a oír) y a sentir esta pieza de piano. Después de ver la charla dan ganas de salir de salir de casa a comprarse el disco.

Hablando de la pieza que interpreta, dice Zander que “para unir el Si con el Mi, tengo que dejar de pensar en cada una de las notas e intentar pensar en el largo camino que va desde el Si hasta el Mi”. Esto, que viene a querer decir “que los árboles no nos impidan ver el bosque”, es lo que debemos intentar que consigan nuestros alumnos. ¿Cómo saber si lo estamos consiguiendo? Para eso hay que ver la charla hasta el final.

Por cierto, la pieza que interpreta es el Preludio en Mi menor (Op. 28, No. 4) de Chopin.

Música en una línea de código

¿Qué tiene que ver la música con el código fuente de un programa? Desde hace tiempo hay gente que, en contraposición con las grandes producciones audiovisuales que consumen montones de memoria y ciclos de procesador, “compite” por generar programas capaces de realizar animaciones o reproducir música con el mínimo número de memoria posible. Estamos hablando de programas de entre 4K y 64 K de memoria que tienen como objetivo conseguir las representaciones audiovisuales lo más completas posible. Las técnicas de programación se fueron perfeccionando con el tiempo, y se llegaron a conseguir resultados francamente impresionantes con mucha menos memoria. El siguiente video es un ejemplo de este tipo de programas, que en este caso sólo ocupa 256 bytes.

[youtube http://www.youtube.com/watch?v=R35UuntQQF8]

Una vez conseguido este reto, muchos programadores proclamaron que los “256 bytes son los nuevos 4K” y se lanzaron a desarrollar programas con mucha menos memoria, con el objetivo de llegar a los 16 bytes de memoria. Para llegar a este límite se suelen utilizar plataformas como el Commodore 64, que permiten generar ficheros ejecutables sin apenas cabeceras y con muy poco código superfluo. Un ejemplo de programa de 23 bytes es el siguiente video, que no resulta tan atractivo visualmente como el anterior, pero sí consigue generar ciertos patrones de sonidos.

[youtube http://youtu.be/7lcQ-HDepqk]

Pues bien, hace algún tiempo, un programador finlandés decidió dar un pequeño paso más allá, consistente en generar música con una sola línea de código C. Un programa tan simple como for(;;) putchar(t++) produce una señal en forma de diente de sierra de 31.25 Hz de frecuencia. Basta multiplicar por 2 la t (t++*2) para que suene una octava más alto y a partir de ahí sólo queda experimentar.

El siguiente video muestra varios ejemplos de lo que se puede hacer con sólo una línea de código:

[youtube http://www.youtube.com/watch?v=GtQdIYUtAHg]

También se pueden ver la segunda y la tercera parte del video con más ejemplos todavía.

Este tipo de sonidos tienen un ritmo que no nos resulta extraño debido a que en la música occidental los compases binarios son muy habituales. En particular, lo sintetizadores suelen utilizar este tipo de estructuras por simplicidad, y así es normal encontrarse con que cuatro pulsaciones formen un compás, y cuatro compases un patrón. Un ejemplo muy gráfico de cómo este tipo de estructura binarias son capaces de generar ritmos que nos resultan familiares es el siguiente video:

[vimeo http://vimeo.com/1639345]

Si quieres experimentar un poco sin necesidad de compilador ni nada por el estilo, prueba esta herramienta javascript en la que basta con introducir el código que se quiere probar y ella ya se encarga de generar el sonido correspondiente. Un código tan simple como t&t>>8 ya es capaz de producir un patrón rítmico bastante interesante. Otro ejemplo que merece la pena probar es:

t>>6^t&0x25|t+(t^t>>11) -t*((t%24?2:6)&t>>11)^t<<1 &(t&0x256?t>>4:t>>10)

El proceso hasta el momento se basa en ensayo-error, y aunque los resultados pueden llegar a ser sorprendentes, falta todavía encontrar un método más sistemático que permita no trabajar a ciegas.

(Vía: Countercomplex)

Música y Ciencia

La relación entre la música y la ciencia es a veces mucho más estrecha de lo que pensamos. Para demostrarlo, hace algún tiempo que desde la FECYT crearon una lista de reproducción pública para Spotify en la que van incluyendo canciones que de una u otra manera (algunas muy cogidas por los pelos) tienen relación o hacen mención a algo relacionado con la ciencia.

Como muestra, un video del grupo They might be giants, de los que ya había publicado algo hace algún tiempo:

[youtube http://www.youtube.com/watch?v=ty33v7UYYbw]

Si quieres escuchar la lista completa (ahora mismo incluye 96 canciones), aquí tienes el enlace para Spotify.

bandArt: la orquesta sin director

No son una orquesta al uso, y eso se nota en sus conciertos. Para empezar no tienen director frente a ellos, ni tampoco nada que demostrar, ya que todos sus integrantes son primeras figuras de las mejores orquestas del mundo, empezando por Gordan Nikolic, concertino y solista de la London Symphony Orchestra.

Ayer actuaron en el Auditorio Nacional de Madrid. Resulta emocionante verles en directo: su movimiento (tocan de pie siempre que pueden), las sonrisas y guiños entre los músicos o los abrazos al final de la interpretación hacen que el ambiente que se respire sea diferente al habitual. Los músicos daban la sensación de estar disfrutando, y eso se transmitía al público. En definitiva, un concierto para recordar.

;

¿Triunfará esta canción? Pregúntale a twitter

La posibilidad de saber de antemano si una determinada canción está llamada a triunfar en el mercado resultaría muy interesante para la industria discográfica.

En este sentido, muchos grupos de investigación de todo el mundo se han dedicado a intentar resolver este problema. La aproximación más frecuente consiste en extraer de la música una serie de características (ritmo, letra, etc.) que de algún modo pueden ser capaces de determinar su potencial a la hora de convertirse en un éxito. La fiabilidad de todos estos sistemas es relativa, en torno a un 80%.

Recientemente, un equipo de investigadores alemanes ha propuesto añadir información extraída de las redes sociales para mejorar los resultados de dichos sistemas de predicción. La hipótesis de partida es que la gente no decide de forma independiente lo que le gusta, sino que le gusta lo que piensan que también gusta a otra gente, una máxima defendida por el profesor de la Universidad de Columbia Duncan J. Watts.

Con esta idea en mente, probaron a utilizar información de last.fm (popularidad, canciones anteriores del mismo artista, número de oyentes, evolución de número de oyentes, etc.). Con todo esto son capaces de mejorar ligeramente los resultados conseguidos cuando sólo se utiliza información extraída de la música.

Por cierto, que recientemente, investigadores de la Universidad de Indiana han sido capaces de predecir Por si fuera poco, en la Universidad de Indiana han logrado predecir los resultados de la bolsa con hasta 6 días de antelación siguiendo el estado de ánimo de los usuarios de Twitter a nivel mundial.

¿Quién ha dicho que Twitter es una pérdida de tiempo?

Para saber más:

(Imagen: Wareseeker)

Canciones pegadizas

¿A quién no le ha pasado? Un día, de repente, se te mete en la cabeza una canción, una melodía, y no hay manera de que salga de ahí, da igual si te gusta o no. ¿Qué hace que una canción produzca este efecto? ¿Por qué unas lo consiguen, y otras no?

Aprovechando que estamos en una época del año especialmente delicada en este sentido, vamos a intentar entender algo mejor este efecto.

Las canciones pegadizas, también conocidas como “Earworms” (traducción literal del alemán “ohrwurms“), afectan en algún momento de la vida al 98% de la población. Por cierto, que nadie me pregunte qué tienen que ver los gusanos (worms) con todo esto. La culpa se la echáis a los alemanes, que fueron los que inventaron la palabra…

En general se sabe bastante poco sobre las razones que hacen que una canción se nos quede pegada y se repita una y otra vez en nuestra cabeza. Una metáfora que nos puede servir para entenderlo es imaginar que lo que sucede es que hay canciones, o trozos de canciones, capaces de excitar nuestro cerebro de forma anómala, como si un trozo en concreto hiciese que nos “pique” el cerebro, y repetirlo una y otra vez hasta la saciedad es la forma que tenemos de “rascarnos”.

En general, las canciones más susceptibles de resultar pegadizas, se caracterizan por ser muy repetitivas, tremendamente simples, y con frecuentes cambios bruscos de ritmo. Vamos, lo que viene a ser casi cualquier canción pop. Otros datos más curiosos indican que las mujeres son más propensas a sufrir estas canciones pegadizas que los hombres, y que lo mismo sucede con músicos y no músicos.

En otro estudio se da lo que podría ser el retrato robot de una canción pegadiza:

  • Canciones repetitivas con muchos la-la-las o similar.
  • Normalmente la parte que funciona es el estribillo de la canción
  • Canciones simples con letras alegres
  • Es más fácil que ocurra cuando la persona está contenta y realizando alguna actividad no intelectual, como caminar.

En cualquier caso no existe una regla de oro para crear canciones pegadizas. Se intentó hacer un ranking de las canciones más pegadizas, y el resultado obtenido fue que la número uno siempre pertenecía a la categoría de “otras”. El que una canción resulte pegadiza o no depende por tanto fundamentalmente del individuo que la escuche.

¿Y cómo podemos sacarnos de la cabeza esa canción que nos atormenta? Pues malamente. Todos hemos experimentado que cuanto más intentas quitarte la canción de la cabeza, peor (esto no es más que una secuencia de lo contraproducente que puede ser la supresión en según qué casos).

A veces, la canción está en nuestra cabeza porque no somos capaces de recordar con exactitud la letra o el final de la canción. En estos casos escuchar la canción original puede ayudar a que se nos vaya de la cabeza. Otras técnicas como la de reemplazar la canción por otra, tampoco parecen funcionar.

Todo esto también tiene su lado positivo: artistas como Neil Young han declarado que se dedicaron a la música porque no podían quitarse canciones de la cabeza, y necesitaban darles salida de algún modo.

Si quieres saber más:

(Imagen: fauquier)

Efectos de sonido: Delay

Empiezo con esta entrada una serie en la que, poco a poco, iremos hablando de los principales efectos de sonido utilizados en música.

Para empezar vamos a hablar del más sencillo de todos: el delay. Como su propio nombre indica, el delay consiste sencillamente en reproducir la señal de entrada junto con una versión retrasada y atenuada de sí misma, simulando así un eco real. Si lo representamos con un diagrama de bloques de esos que tanto nos gustan a los ingenieros, sería así:

La entrada pasa a través de un bloque que la retarda, después se le aplica una ganancia (se multiplica por un número), y se suma el resultado a la señal original de entrada. Existen dos parámetros de control en este efecto: el retardo introducido a la señal de entrada, y la ganancia aplicada a la señal retardada que posteriormente se sumará a la señal original. Jugando con ellos podemos obtener efectos muy distintos.

Por ejemplo, si la señal de audio original es la siguiente:

[audio http://enriquealexandre.es/wp-content/uploads/2010/04/original.mp3]

Si la procesamos por un delay con un retardo de 250ms y una ganancia de 1, el resultado será:

[audio http://enriquealexandre.es/wp-content/uploads/2010/04/delay1.mp3]

Sin embargo, si reducimos el valor del retardo a tan solo 40ms, el efecto es muy diferente:

[audio http://enriquealexandre.es/wp-content/uploads/2010/04/delay4.mp3]

En el primer caso se escucha el eco claramente diferenciado de la señal original, mientras que en el segundo ambas señales se mezclan, y no somos capaces de distinguirlas.

La razón de esto es la integración temporal del oído humano. Si dos sonidos nos llegan lo suficientemente juntos, los oiremos como uno solo. Por otra parte, si la distancia entre los dos sonidos es mayor de unos 80ms, entonces los escucharemos como dos sonidos independientes, obteniendo el clásico efecto de eco.

El problema de un esquema tan sencillo es que introducir un solo eco en la señal resulta demasiado simple, y no aporta demasiadas posibilidades. Es por ello que resulta muy común ver unidades de delay que incorporan un lazo de realimentación, como el mostrado en la siguiente figura:

Fijando la ganancia F a un valor menor de 1 (ya que en caso contrario el sistema se volvería inestable), es posible obtener una sucesión de ecos con amplitudes cada vez menores. Algo así como ECO ECo Eco eco….

Utilizando el mismo fichero de audio que antes, si ahora configuramos el delay para tener una realimentación con una ganancia de 0.8, lo que obtendremos será esto:

[audio http://enriquealexandre.es/wp-content/uploads/2010/04/delay2.mp3]

Si utilizásemos un valor mucho menor del retardo (30 ms, en el ejemplo siguiente), el resultado no tiene nada que ver:

[audio http://enriquealexandre.es/wp-content/uploads/2010/04/delay3.mp3]

Lo que obtenemos es un sonido con un timbre claramente metálico, y al efecto se le conoce normalmente como flutter echo.

Para terminar, y a modo de curiosidad, existen algunas configuraciones de delays que reciben nombres concretos en el mercado. Las más conocidas son:

  • Slapback: Un slapback no es más que un delay sin realimentación con un tiempo de retardo muy pequeño (entre 40 y 120 ms).
  • Eco: Un eco es un delay sin realimentación con un tiempo de retardo algo superior al del slapback (mayor de 120ms).
  • Ping-pong: Se trata de dos unidades de delay operando conjuntamente, que producen el resultado de un delay que se mueve entre el canal izquierdo y derecho.

Para los más frikis del lugar, que seguro que alguno hay, os dejo aquí un programa de Matlab para que podáis jugar con cada uno de los parámetros y ver los resultados.