Una nueva plataforma digital de audio, con potenciales aplicaciones terapéuticas, simula los componentes acústicos de las vocalizaciones emocionales.La música puede provocarnos emociones, y también el tono de voz. Esto último se ha demostrado por primera vez empíricamente, con una novedosa plataforma digital de audio capaz de simular los componentes acústicos de las vocalizaciones emocionales. Los resultados de dicha plataforma, con potenciales aplicaciones terapéuticas, apuntan una vez más a una profunda relación entre emoción y música en nuestra especie.
De todos es sabido que cualquier variación musical puede provocarnos emociones diferentes. Por otro lado, en 2009,estudios realizados en la Universidad de Duke (Estados Unidos) revelaron que la voz humana está estrechamente relacionada con la música. De hecho, los acordes y escalas musicales más comúnmente usados durante siglos guardan similitudes con nuestro discurso.
Merced a estas similitudes, ¿tendría la voz humana la misma capacidad de emocionar que la música? La experiencia nos dice que así es. Pero ahora también lo ha demostrado un experimento científico realizado con una plataforma de audio digital que permite modificar el tono emocional de la voz mientras se está hablando, para hacer que esta suene más feliz, más triste o más asustada.
Según Petter Johansson, investigador de la Universidad de Lund (Suecia) y uno de los autores del estudio (otros son del IRCAM francés), esta sería “la primera evidencia directa de efectos de retroalimentación sobre la experiencia emocional en el dominio auditivo».
Un efecto sin control
En el transcurso del experimento, los participantes leyeron un cuento en voz alta mientras escuchaban su propia voz alterada. Las manipulaciones emocionales de la voz se lograron gracias a unos algoritmos de procesamiento digital de audiocapaces de simular aquellos componentes acústicos de nuestras vocalizaciones emocionales. Para ello, los algoritmos modifican tonos e inflexiones de la voz o su espectro de frecuencias. Los resultados demostraron que, aunque los participantes en el estudio no eran conscientes de que sus voces estaban siendo manipuladas, su estado emocional cambió en función de la emoción que sus propias voces reflejaban.
Según los científicos, este hecho apunta en dos direcciones. Por un lado, que la gente no siempre controla su propia voz para lograr un objetivo específico. Por otro, que oímos nuestra propia voz para comprender cómo nos sentimos.
Potenciales aplicaciones
Los investigadores creen que esta nueva plataforma de audio puede abrir muchas nuevas vías de experimentación. Por eso están preparando una versión de ella que estará disponible en código abierto en su página web ; e invitan a todo aquel que lo desee a descargar y experimentar con esta herramienta. También se contempla que la plataforma pueda ser utilizada con fines terapéuticos, por ejemplo, para tratar trastornos del estado de ánimo a través del relato, en un tono de voz modificado, de determinados recuerdos.
Profundas raíces
El efecto de la música y, como se ha comprobado ahora, de la “musicalidad” de la voz sobre nuestras emociones tiene raíces muy profundas. Por un lado, hay una causa cerebral; pues se sabe que la música y la emoción comparten una misma región en el cerebro : el córtex o corteza prefrontal. Esto lo demostró en 2002 un estudio de la Universidad de Dartmouth.
Por otra parte, la musicalidad de la voz quizá sea una de las primeras formas de comunicación humana. Según algunos especialistas, los bebés aprenden el lenguaje identificando en primer lugar la musicalidad de este, por lo que, desde la perspectiva del desarrollo, la música estaría antes que el lenguaje; y este surgiría de la música. Tal vez por eso uno y otro se parezcan tanto, como indicaban los investigadores de la Universidad de Duke.
Fuente: Tendencias21
Referencia bibliográfica:Aucouturier, J-J., Johansson, P., Hall, L., Segnini, R., Mercadi, L., Watanabe, K. Covert digital manipulation of vocal emotion alter speakers’ emotional states in a congruent direction. Proceedings of the National Academy of Sciences (PNAS) (2015). DOI: 10.1073/pnas.1506552113.