El mar dentro de una caracola

CaracolaSeguro que todos lo hemos hecho alguna vez en la vida: acercas una caracola a la oreja y eres capaz de escuchar el sonido del mar. ¿Alguna vez nos hemos preguntado por qué sucede?

Una explicación muy extendida es que la caracola amplifica el ruido que produce la sangre al circular por los capilares del oído, y es ese el ruido que en realidad estamos escuchando. No obstante esta teoría se puede refutar haciendo dos experimentos muy simples:

  • Si fuese cierta, cuanto más silencioso esté nuestro entorno, más claro oiríamos el ruido. Pues bien, en realidad podemos comprobar que sucede justo al contrario. Si hiciésemos la prueba en una sala completamente aislada acústicamente, no oiríamos nada.
  • Además, en teoría el sonido debería subir de intensidad tras hacer ejercicio, ya que entonces el flujo de la sangre es mucho más rápido. Esto tampoco sucede.

La verdadera explicación la tenemos que buscar a nuestro alrededor. Aunque no seamos conscientes de ello, siempre estamos rodeados de ruido, unas veces más intenso y otras muchas imperceptible ya que nuestro cerebro se encarga de ignorarlo. Al poner la caracola cerca de nuestra oreja, ésta actúa como un resonador, amplificando o atenuando las distintas frecuencias de este ruido dependiendo de su tamaño y forma. Dicho de otro modo, lo que está ocurriendo es que el ruido de fondo que hay a nuestro alrededor se «cuela» dentro de la caracola, y dentro de ella rebota una y otra vez contra las paredes, de forma que algunas frecuencias salen muy reforzadas mientras que otras salen debilitadas.

Resonador Helmholtz

Este tipo de efecto lo podemos relacionar con el producido por los denominados resonadores de Helmholtz, que consisten en un recipiente terminado en una pequeña abertura para que entre el aire. Un ejemplo muy típico es un botella, que al soplar sobre su borde, emite una nota que depende del tamaño y forma del recipiente. De una manera muy simplista podemos decir que la frecuencia de resonancia depende, entre otras cosas, del volumen del recipiente. Es por esto que caracolas más grandes tenderán a amplificar sonidos más graves, mientras que caracolas más pequeñas harán lo contrario, amplificarán más los sonidos más agudos.

Podemos conseguir un efecto muy parecido al de la caracola si simplemente acercamos la mano (o una taza) al oído. Si variamos la forma en que colocamos la palma de la mano así como la distancia a la oreja, podremos apreciar cómo varía el sonido, tanto en frecuencia como en amplitud.

Un cuarto de milla…. de vinilo

¿Cuál es la longitud del surco de un disco de vinilo? El proceso de reproducción de un disco de vinilo consiste en convertir los movimientos mecánicos de la aguja que recorre el surco del disco en una señal eléctrica. El surco por el que circula la aguja tiene una longitud de aproximadamente un cuarto de milla (0.4 km) por cada cara, algo que se puede ver en el siguiente video. En él, cada pulgada (2.54cm) que recorre la aguja se oye como un click, cada pie (12 pulgadas, 30.5 cm) como un beat, y cada 10 pies (3 metros) como un blip. Resulta curioso observar cómo cuanto más se acerca la aguja al centro lo sonidos se oyen a un ritmo cada vez menor. Esto sucede porque el disco siempre gira a la misma velocidad angular (las famosas 33 rpm de los LPs), y así, cuanto más cerca estemos del centro del disco, menor será la longitud de cada vuelta, y más tiempo (más vueltas) tardaremos en recorrer la misma distancia. Para hacernos una idea, la distancia recorrida por la aguja en una sola vuelta cuando está en el exterior del disco (1 metro más o menos) equivale aproximadamente a tres vueltas completas cuando se encuentra en la parte interior.

Si hiciésemos la misma prueba con un CD de audio nos encontraríamos con que los clicks se oirían siempre al mismo ritmo. Esto es porque, al contrario que los vinilos, los CDs mantienen una velocidad lineal constante (de alrededor de 1.2m/s), lo que implica que el disco debe girar a una velocidad angular variable dependiendo de si se está leyendo la parte interior o exterior del disco. Así, la velocidad de giro del disco varía desde unas 495 rpm cuando se está leyendo la parte de dentro hasta sólo 212 rpm cuando se está en la periferia del disco. La información se almacena, al igual que ocurría con los vinilos, en una pista que recorre el disco en forma de espiral, con una longitud total de algo más de 5km, pero en este caso empezando desde el centro, en lugar de desde el exterior como en el caso del vinilo. Esta información se almacena en pequeñas irregularidades en la superficie del disco, de forma que, al incidir sobre ellas el láser, hacen que la luz se refleje de forma ligeramente distinta.

Micrófono de humo

En la actualidad, casi todos los micrófonos basan su funcionamiento en la existencia de una lámina o diafragma, cuyo movimiento debido a las vibraciones producidas por las ondas sonoras, es aprovechado para convertir dicho sonido en una señal eléctrica. La presencia del diafragma es precisamente una de las limitaciones de los micrófonos, ya que su masa e inercia provocan distorsiones, agradables o no, en el sonido.

Hace un par de meses se presentó un nuevo concepto para micrófonos: el micrófono de láser-humo. Este invento utiliza una columna de humo cuyos movimientos, causados por el sonido, son captados por un haz de rayo láser. En teoría, al tener una masa prácticamente nula, las partículas de humo deberían reaccionar al sonido mucho mejor de lo que lo haría un diafragma. Al menos en teoría.

En el siguiente video se puede ver a su inventor, David Schwartz (quien también es uno de los padres del mp3), explicando cómo funciona el artilugio. La calidad de sonido que obtiene es paupérrima, pero se trata sólo de un prototipo para comprobar la viabilidad de la idea.

Repelente de adolescentes

Hace un mes se hicieron públicos los nombres de los ganadores de los premios IgNobel de este año. Para quien no los conozca, estos premios, entregados por la revista Annals of Improbable Research, reconocen la realización de investigaciones que al principio pueden causar risa, pero que después nos hacen pensar.

Algunos de los trabajos premiados este año son: el estudio que demuestra que las vacas que tienen nombre dan más leche que las que no lo tienen (premio de Veterinaria), el que determina si es mejor ser golpeado en la cabeza con una botella llena de cerveza (premio de la Paz) o el que demuestra analíticamente por qué las mujeres embarazadas no se caen hacia delante (premio de Física). Por cierto que los últimos españoles en ganar uno de estos premios fueron unos investigadores de la Universidad de Barcelona, que demostraron en 2007 que algunas ratas tienen problemas para diferenciar entre una persona hablando japonés al revés y una persona hablando holandés al revés.

Pues bien, a lo que vamos. El premio de la paz de 2006 se otorgó a los inventores de un sistema para repeler a los adolescentes, que comercializan bajo el nombre de «mosquito«. El sistema se basa en la emisión de sonidos con una frecuencia de 17kHz, inaudibles para la mayor parte de las personas mayores de 20 años, pero muy molestos para los adolescentes. Actualmente el uso de este dispositivo está siendo muy cuestionado en muchos países por sus posibles efectos nocivos para la audición y por discriminar a los jóvenes por su edad independientemente de su comportamiento.

Aunque normalmente se afirma que todos tenemos la capacidad para oír sonidos de hasta 20kHz, esto no es cierto, ya que con la edad tendemos a perder la capacidad de oír sonidos de altas frecuencias. Así, una persona en torno a los 30 años es normal que no sea capaz de percibir sonidos por encima de los 15kHz. De hecho, la gran mayoría de los codificadores de audio de los que hablaba en mi anterior entrada hacen uso de este efecto, y descartan todos los sonidos por encima de esta frecuencia. Para comprobar nuestro grado exacto de audición lo más adecuado es acudir a un especialista, que nos realizará una audiometría y nos podrá decir si sufrimos algún tipo de pérdida auditiva. No obstante, en esta página se pueden escuchar sonidos de distintas frecuencias para hacernos una idea de lo que aquí estamos hablando.

Por cierto, que no todo son malas noticias para los adolescentes. Las mismas personas que comercializaron el «mosquito» decidieron aplicar el mismo principio para diseñar tonos de móviles audibles para los adolescentes pero no para sus profesores.

Spotify vs. Sky Songs

Listening testLeo en Slashdot la siguiente noticia: «Un tercio de la gente no es capaz de distinguir entre audio codificado a 48 kbps y a 160kbps». La noticia hacía referencia a una prueba que hizo la gente de cnet, en la que comparaban la calidad de la música proporcionada por Spotify y por Sky Songs.

Spotify utiliza para transmitir la música un codificador de audio OGG Vorbis con una tasa binaria de 160kbps (en la versión de pago la tasa binaria sube hasta 320kbps), mientras que Sky Songs utiliza un codificador AAC+ con una tasa binaria de 48kbps. Para realizar la prueba se tomó a 16 personas de la redacción, se les pusieron unos cascos de 500 euros conectados a un buen amplificador, y se reprodujo la canción Billie Jean, obtenida tanto de spotify como de Sky Songs. El resultado fue, dice la noticia, sorprendente: un tercio de las personas pensaron que la canción de Sky Songs (la codificada con AAC+ a 48kbps) sonaba mejor que la de Spotify.

La noticia introduce una serie de conceptos que es necesario tener bien claros para poder entenderla correctamente. Quizás entonces el resultado nos parezca algo menos sorprendente, o cuando menos engañoso:

  • Tasa binaria: Nos dice la cantidad de bits que necesitamos almacenar por cada segundo de sonido. Por eso se mide en bits por segundo, o más normalmente en kilobits por segundo (kbps). Así, si tengo un fichero de un minuto de duración codificado a 128kbps, ocupará finalmente 128kbps*60s=768 kbits. Para que nos hagamos una idea de la cantidad de bits que se pueden llegar a ahorrar, la tasa binaria de un fichero de CD es de unos 1400kbps, mientras que un fichero mp3 codificado a 128 ó 192 kbps (10 veces menos que el CD) puede llegar a tener una calidad más que aceptable.
  • Codificador de audio: Cuando hablamos de un codificador de audio nos referimos a algún programa capaz de reducir el tamaño que ocupa un determinado fichero de audio. Es como un zip pero para ficheros de audio. El ejemplo más conocido de codificador de audio es el mp3, que nos permite reducir el tamaño de los ficheros de sonido hasta en un 90% como comentamos en el punto anterior. La mayor parte de los codificadores consiguen esta reducción a base de eliminar partes «irrelevantes» de la señal de audio original, esto es, partes cuya ausencia no podemos percibir dadas las limitaciones de nuestro sistema auditivo. Para entender esto, imaginemos que estamos grabando el sonido de un concierto de rock en directo. Ahora imaginemos que a un espectador le suena el móvil. ¿Oiríamos ese sonido? Probablemente no, porque quedaría enmascarado por el sonido ambiente del concierto. ¿Está ese sonido ahí? Si, por supuesto, aunque no sea audible. Pues bien, podemos pensar que un codificador de audio lo que haría sería eliminar del fichero de audio el sonido de ese móvil, ahorrándose así los bits que de otro modo harían falta para almacenarlo.
  • AAC+, Vorbis,…: No son más que distintos codificadores de audio, como también lo es el mp3. El mp3 es un codificador de audio basado en el estándar internacional MPEG-1. Su nombre completo es MPEG-1 Capa III, de ahí lo de mp3. AAC es, por decirlo de alguna manera, el sucesor de mp3, y forma parte del estándar MPEG-2. Sus siglas vienen de Advanced Audio Coder, y se diferencia del mp3 en que utiliza una serie de herramientas más sofisticadas para conseguir ser mucho más eficiente que el mp3, a costa de ser también bastante más complejo. El AAC+, también llamado HE-AAC (High Efficiency AAC), es una versión del AAC pensada para cuando la tasa binaria es muy baja, y forma parte del estándar MPEG-4 (No, lo siento, pero no existe el MPEG-3….). Por su parte, el Vorbis es un codificador de audio de código libre, desarrollado por la fundación Xiph.Org. Se puede ver como una alternativa al mp3, pero completamente libre, ya que no es necesario pagar licencias por patentes, tal y como ocurre con mp3, AAC y AAC+.
  • ¿Son todos los codificadores iguales? No, todo lo contrario. Incluso dos codificadores del mismo tipo (dos mp3, por ejemplo) pueden dar resultados completamente distintos. Muchos codificadores de audio se conciben de tal forma que se deja mucha libertad al programador  a la hora de ajustar su código para obtener mejores resultados, mayor velocidad de proceso, etc., siempre y cuando al final garanticen que el fichero final cumpla una serie de requisitos que lo hagan legible para un reproductor (decodificador). Así, un desarrollador puede decidir por ejemplo implementar un mp3 de muy alta calidad a costa de que tenga una elevada complejidad computacional, mientras que otro puede programar el mismo mp3 pero diseñado de forma que su complejidad sea mínima, a costa de sacrificar algo de calidad. Es normal encontrarse en la red con comparativas de codificadores de distintos desarrolladores, en las que se observa que existen claras diferencias entre unos y otros, a pesar de estar implementando el mismo estándar.
  • Tests de escucha: A la hora de evaluar la calidad de un codificador de audio uno de los métodos más utilizados es el de realizar tests de escucha. El método consiste en coger a muchas personas, entrenarlas para aprender a percibir las distorsiones más comunes en un codificador de audio, y a continuación presentarle los ficheros de los codificadores que se desea evaluar o comparar. Para hacer esto hay muchos métodos. El más típico es el conocido como test doble ciego con triple estímulo y referencia oculta, también conocido como test ABC/HR. Sí, el nombre asusta, pero la idea es muy sencilla. En este test se le presentan al sujeto tres ficheros de sonido (de ahí lo de triple estímulo). Uno de ellos, etiquetado como ‘A’, es siempre la señal de referencia (el fichero original, sin codificar), mientras que los otros dos, ‘B’ y ‘C’, contienen el fichero de referencia y la señal codificada, ordenados aleatoriamente, sin que ni el sujeto ni la persona que dirige el test sepan cuál es cuál (de ahí lo de doble ciego y referencia oculta). Al sujeto se le pide que identifique cuál de las señales ‘B’ y ‘C’ coincide con la referencia ‘A’, y después que puntúe a la otra según su calidad.

Test ABC/HR

Con todo lo explicado hasta aquí podemos destripar ya un poco mejor la noticia con la que empezaba el post. Hay que dejar claro que en la propia noticia se deja bien claro que no se trataba más que de una prueba sencilla, sin ningún ánimo de constituir un estudio serio de la calidad de estos dos sistemas, y por tanto no pretendo yo criticar la noticia en sí, sino utilizarla como base para explicar una serie de temas que no siempre se dejan lo suficientemente claros.

En primer lugar la tasa binaria no es un indicador definitivo de la calidad de un fichero. Es posible encontrarse con ficheros codificados en mp3 a 128kbps que suenan francamente bien, y también con otros que suenan francamente mal. La calidad final de un fichero codificado depende de muchos factores: del fichero en sí (los hay que son más «fáciles» de codificar que otros, de la tasa binaria utilizada, del modelo de codificador, de la implementación de dicho modelo, etc. Es por todo esto que el decir, como se dice muchas veces, que «el mp3 a 192kbps suena muy bien» es incorrecto. Como ejemplo podemos escuchar este fichero. Si lo intentamos codificar a una tasa binaria de 353kbps, podemos obtener resultados tan dispares como este, o este otro.

Sigamos. Como bien dicen en la noticia, y en los comentarios de la misma, la metodología seguida para hacer el test no es la más adecuada. En primer lugar, utilizar sólo 16 personas no tiene ninguna validez estadística. Pensémoslo un poco. Si una persona de las 16 toma su decisión al azar, supondrá un cambio en el resultado final del 1/16=6.25% hacia un lado o hacia el otro. Cuando se realiza un estudio serio de este tipo se suele utilizar un número mucho mayor de gente, que además es necesario entrenar previamente. Es por esto que este tipo de tests resultan muy costosos de hacer. Los ficheros se eligen de distintos estilos musicales, para evitar demasiados sesgos debidos a los gustos musicales de la gente, y además se procura utilizar muestras de corta duración de cada fichero (nunca una canción entera), para intentar reducir el cansancio de la gente.

Por otra parte, el mostrar a las personas sólo los dos ficheros, sin una referencia, y pedirles que elijan el mejor, siempre va a conducir a resultados sesgados si siempre mantenemos los ficheros en el mismo orden.

HeadphonesPor último, como ejemplo, dejo aquí tres ficheros para quien quiera hacer la prueba. El primer fichero es el archivo original, sin codificar. Los otros dos son versiones codificadas del anterior, uno con Vorbis a 160kbps y el otro con AAC+ a 48kbps:

Fichero de referencia

Fichero B

Fichero C

¿Sois capaces de identificar cuál es cuál?

¿Los patos no producen eco?

Hoy toca una de mitos. Existe uno bastante difundido que dice que los graznidos de los patos no producen eco. La verdad es que no tengo ni idea de dónde ha salido este mito, pero es muy fácil encontrárselo en los típicos correos con listas de cosas curiosas (y muchas veces falsas).

Un eco, para entendernos, se produce cuando nos llega una copia del sonido original retardada y con un nivel de energía lo suficientemente alto. De forma aproximada se puede considerar que una señal se percibe como un eco si nos llega con un retardo superior a 50ms (en caso contrario nuestro sistema auditivo lo integraría con el sonido original) y con un nivel no más de 10dB inferior al de la señal original (ya que si no quedaría enmascarado por el sonido original).

Si echamos cuentas, en 50ms el sonido recorre una distancia de aproximadamente 17 metros. Por lo tanto siempre que tengamos una sala con una longitud de más de 8 metros y medio tendremos el riesgo de que se produzca un eco. El problema se soluciona utilizando materiales absorbentes que reduzcan la amplitud del sonido reflejado, o difusores que contribuyan a dispersar el sonido. De todo esto se puede extraer la siguiente conclusión: la aparición o no de un eco depende de la distancia hasta el objeto que refleja el sonido, pero en ningún caso del tipo de sonido.

Por si con esto no fuese suficiente para desmentir el mito, hace unos años unos investigadores de la Universidad de Salford decidieron tomar un pato (de nombre Daisy para más señas) y grabar su sonido en diversas condiciones acústicas. El resultado, como era de esperar, demuestra que el graznido del pato no es inmune a las leyes de la física y por tanto produce eco como cualquier otro sonido. Trevor Cox, el director del estudio, concluye diciendo que, aunque es cierto que el sonido del pato produce eco, éste no es fácil de escuchar, ya que el sonido no tiene las características óptimas para que el eco resulte claramente perceptible. Para escuchar fácilmente un eco es preferible contar con sonidos fuertes y cortos, todo lo contrario del graznido del pato.

El efecto Lombard

Vayamos al año 1909. En esa época muchos médicos utilizaban un aparato recién patentado por Robert Bárány (1876-1936) que introducía un ruido de nivel alto en uno de los oídos del paciente para poder examinar el otro simulando condiciones monoaurales. Uno de los usuarios de este dispositivo era el otorrinolaringólogo Etienne Lombard (1869-1920), quien se dio cuenta de un curioso efecto, que además no parecía producirse de modo consciente: cuando el ruido comenzaba, el paciente tendía a elevar el nivel de su voz, el cual volvía a la normalidad justo al cesar el ruido. Este efecto, que hoy conocemos como efecto Lombard, ha tenido una gran importancia en varias áreas de investigación distintas:

  1. Permitió diseñar test para determinar las pérdidas auditivas de un paciente, y en concreto si éstas están siendo simuladas.
  2. Produjo importantes avances en el estudio de la comunicación vocal en presencia de ruido.
  3. Influyó en el estudio de las relaciones dinámicas existentes entre la audición y la producción de voz.
  4. Motivó el modelado de la producción de voz como un servomecanismo.

En este post me voy a centrar en el primer punto, y dejaré los restantes para futuras entradas.

En sus experimentos, Lombard observó que si se tomaba un sujeto con una audición normal y se le introducía ruido en uno de los dos oídos, el paciente tendía a subir ligeramente la voz, mientras que si el ruido se introducía en los dos oídos a la vez subía mucho más la voz, llegando incluso a gritar. Si el paciente tenía pérdidas unilaterales (en uno de los dos oídos), y el ruido se le presentaba en el oído enfermo, el paciente apenas subía la voz, mientras que si el ruido estaba en el oído sano, el paciente comenzaba a gritar, igual que hacía el paciente sano frente a ruido binaural.

Efecto Lombard

A partir de estas observaciones se puede establecer el siguiente test:

  • Se introduce ruido en uno de los oídos del paciente y se le pide que hable o lea algo.
  • Si no se observa el efecto Lombard (es decir, el paciente habla en un tono normal), entonces el paciente no tiene pérdidas en el otro oído.
  • Si el paciente habla gritando, esto es, se observa el efecto Lombard, entonces podemos concluir que tiene pérdidas auditivas totales o severas en el otro oído.

Este test nos permite saber, por tanto, cuándo una persona está fingiendo, por la razón que sea, tener pérdidas auditivas en uno de sus oídos. Si las supuestas pérdidas son bilaterales basta con presentarle ruido en los dos oídos, y el procedimiento es igual de sencillo.

A lo largo de los años se han realizado muchos experimentos para verificar la robustez de los tests basados en el efecto Lombard. Se pudo observar que algunos sujetos, con una buena dosis de entrenamiento, son capaces de aprender a fingir el efecto. No obstante, en paralelo con todos estos estudios también se comprobó que estos engaños no suelen funcionar si tenemos en cuenta que el efecto Lombard no sólo afecta al nivel de la voz, sino también a su frecuencia fundamental o a la duración de la articulación de los sonidos. Se observó, por ejemplo, que cuando se intenta fingir el efecto se tiende a subestimar el cambio de intensidad en el nivel de voz, y a exagerar el cambio de la frecuencia fundamental.

Otra curiosidad de este efecto es su influencia en la música coral. Los cantantes de coros escuchan menos de lo normal su propia voz debido al sonido del resto de los cantantes que les rodean. Esto hace que la gente en los coros tienda a cantar a un nivel más elevado del adecuado, siendo tarea del director el controlarles.

Por cierto, Lombard mantuvo una disputa con Bárány por la autoría de este descubrimiento. Finalmente se demostró que Lombard tenía razón. Bárány terminó obteniendo el premio Nobel de Medicina por sus trabajos sobre el aparato vestibular del oído.

El test de Lombard no es el único que existe hoy en día para verificar si una persona está fingiendo tener más o menos pérdidas auditivas de las que realmente tiene. Existen muchos otros como el test de Azzi, el de Stenger, etc., pero eso mejor lo dejamos para otro día.

No me gusta mi voz

Hay una pregunta que seguramente todos nos hemos hecho alguna vez: ¿Por qué me suena tan rara mi propia voz cuando la oigo en una grabación?

En primer lugar tenemos que pensar que cuando oímos nuestra propia voz, el sonido que nos llega al oído interno consta de dos componentes principales: el sonido que ha viajado por el aire directamente desde nuestra boca al oído, y el sonido que viaja por el interior de nuestra cabeza, en forma de vibraciones que se transmiten a través de los huesos. Si eliminamos cualquiera de las dos componentes el resultado será que obtendremos una voz ligeramente distinta a la «normal», como si la hubiésemos ecualizado.

Al grabar nuestra voz estamos eliminando completamente la contribución de la última vía de transmisión, la ósea, con la consiguiente distorsión al sonido total. Observar este efecto es muy sencillo: basta con taparse los oídos y hablar. Veremos cómo seguimos oyéndonos, pero con un sonido mucho más grave. Pues ese es precisamente el sonido que le estaríamos eliminando a nuestra voz cuando la grabamos. Por eso en la mayoría de los casos nos parece que cuando escuchamos nuestra voz grabada tenemos «voz de pito»: le faltan todos esos sonidos graves que nos proporciona la transmisión ósea.

En segundo lugar existe también una componente asociada a la diferencia entre la audición biaural y la grabación con un micrófono. Cuando se graba la voz con un solo micrófono, se pierde mucha información relativa al entorno acústico (el “qué” y el “dónde”). De hecho se ha podido demostrar que si grabamos nuestra voz utilizando para ello un par de micrófonos colocados en las orejas de un maniquí, el resultado resulta mucho más convincente. Además, cuando grabamos nuestra voz, normalmente el micrófono está situado frente a la boca, no en la posición de nuestras orejas, y debemos tener en cuenta que la directividad de la boca de una persona hablando, sobre todo a altas frecuencias, es lo suficientemente marcada como para que se produzcan diferencias muy significativas entre ambas posiciones. Y todo esto sin entrar a valorar la calidad del equipo con el que estemos grabando, que casi nunca podemos considerar “neutral”, sino que tenderá a ecualizar de una u otra forma el sonido.

Por último también influyen factores psicológicos. El sonido de nuestra propia voz suena como «Yo», mientras que el sonido de la voz grabada nos suena como «Yo fuera de mi cuerpo», y eso no cabe duda de que es extraño. Un símil: todos estamos muy acostumbrados a vernos a diario en espejos, pero basta que nos fijemos en la reacción de muchos animales ante su reflejo en un espejo: tienen la misma sensación de «ese no soy yo» que nosotros cuando oímos nuestra voz grabada.