El rostro de tu música: ¿una playlist basada en tus expresiones faciales?

Por Sergio Navarro Tuch
Artículo de divulgación científica

Los avances en la tecnología han traído como consecuencia un incremento en el acceso a la cantidad de estímulos auditivos a nuestra disposición. En la actualidad, varios de los algoritmos de edición y sugerencia de música (como los que usan Spotify y Amazon Music), se basan en analizar los perfiles de los usuarios y sus gustos colectivos.

Una de las grandes tendencias actuales es la personalización masiva. Para lograr esta personalización, constantemente surgen más herramientas de integración y análisis de datos, siendo algunos de los más sonados el Big Data y la Inteligencia Artificial. Algo común en todas estas herramientas es la necesidad de grandes cantidades de información, a partir de la integración de más sensores y una creciente necesidad de poder computacional.

Para el caso de nuestra investigación, se busca generar estrategias y herramientas para la implementación en estímulos acústicos. Para alcanzar este objetivo, surgen dos dudas: ¿Qué impacto tienen los estímulos sobre el usuario? ¿Cómo podemos medir dicho impacto?

Musicoterapia en la vida diaria

Antes de la existencia de la escritura y de la generación de lo que hoy en día se entiende como lenguaje, el uso de estímulos auditivos y composiciones musicales han formado parte del desarrollo humano. A lo largo del desarrollo de nuestra especie, los estímulos acústicos no han menguado y siguen siendo objeto de estudio en diversos rubros. Algunos ejemplos de la implementación y el estudio de la musicoterapia son los siguientes:

  • Terapia para espectro autista. Se ha encontrado mejoras en las capacidades de interacción social e imaginación en niños tratados con musicoterapia (un equivalente al efecto de la música en las fiestas).
  • Tratamiento para enfermedades y desórdenes. El uso de música, tonos, y otros estímulos auditivos han sido implementados para el tratamiento del estrés, tratamiento del tinnitus (timbrado constante en el oído), la hipertensión, etcétera.
  • Internet de las cosas e impacto ambiental. La tendencia de integración de información y sistemas de control lleva al desarrollo de sistemas de inmersión, integrando controladores ambientales con sistemas de sonido, en respuesta a la actividad del usuario. Además de la implementación para el análisis de la productividad en ambientes laborales en respuesta al ruido.
  • Sistemas de personalización musical. Plataformas como Spotify, Amazon Music, por mencionar algunos, implementan algoritmos de perfilado para la generación de listas de recomendación musical.

Todos los ejemplos previamente mencionados ya han trascendido hacia la implementación en la vida diaria. Pero tal y como se mencionó previamente, esta área de investigación sigue en constante evolución, por lo que a continuación se abordarán una de las líneas de investigación teóricas activas.

El experimento

Previamente mencioné el uso de herramientas tecnológicas de alta demanda computacional, como la Inteligencia Artificial y el Big Data. Dichas herramientas nos proveen con la capacidad de adquirir, sincronizar, analizar y modelar grandes cantidades de información. Pero para poder usar de manera efectiva dicha información, es indispensable saber usar dichos datos.

A modo de analogía, podemos considerar los datos como si fueran una cubeta de piezas mixtas de Lego. Es cierto que, si tenemos miles de fichas, las posibilidades de lo que podemos hacer son muy amplias. Sin embargo, si no se tiene un orden o una intención, son solamente un montón piezas de plástico. Los datos son el equivalente a nuestras piezas, por lo que, a fin de poder usarlos, necesitamos saber primero para qué los queremos.

En el caso de esta investigación, buscamos analizar el impacto sobre la respuesta emocional de los usuarios que son sujetos a estímulos auditivos, a fin de generar, de manera inicial, un sistema de recomendaciones, y en fases futuras, un compositor automático.

Para alcanzar este objetivo, la herramienta seleccionada (para simplificar la replicación) es el análisis de expresiones faciales por medio de visión computacional. De este modo, el sistema se enfoca en la búsqueda de activaciones de grupos musculares faciales (gestos faciales), comparándolos con el estado previo del participante.

Para la experimentación de esta investigación se establecieron estímulos auditivos que alternaban entre composiciones musicales (canciones, sinfonías), tonos puros (frecuencias de 220 y 1700 Hz) y sonidos cotidianos (crujido de papel, ruido de aviones, etcétera). Dichos estímulos fueron aplicados a un grupo de 40 voluntarios de entre 19 y 24 años de edad, en un entorno controlado, para que todos tuvieran las mismas condiciones ambientales. Además, los estímulos auditivos fueron dispuestos de manera aleatoria para eliminar el efecto del orden predefinido.

Con los datos recopilados, se analizaron los puntos donde la expresión facial se desviaba del estado basal (es decir, la expresión del individuo en estado de reposo) a fin de poder identificar qué expresión y emoción les evocaba cada estimulo.

De dicho análisis se pudo definir cuáles eran los estímulos de impacto despreciable, así como identificar algunos de los elementos que impactan en el usuario. La identificación de dichos elementos son clave para el desarrollo de sistemas compositores, así como para el diseño de terapias de estimulación emocional variada.

Nuevas oportunidades

Los avances en la tecnología, así como el aumento de elementos y sensores interconectados, han abierto nuevas oportunidades de investigación y evolución de sistemas de interacción diaria. Una de las áreas impactadas por estas estrategias es la música y los estímulos auditivos.

La investigación en este rubro permitirá no sólo el desarrollo de sistemas con mayor impacto y mejora en la calidad de vida y tratamiento médico, sino también permitirá una mayor comprensión del pensamiento e interacción humana.

¿Quieres saber más?

El artículo científico se puede consultar aquí:
Variation of Facial Expression Produced by Acoustic Stimuli

El autor

Sergio Alberto Navarro Tuch es Ingeniero en Mecatrónica y Doctor en Ciencias de la ingeniería, egresado del Tec de Monterrey, Campus Ciudad de México. Actualmente es investigador posdoctoral en el Centro de Innovación en Diseño y Tecnología. Sus intereses de investigación incluyen la domótica basada en análisis de estado emocional del usuario, el análisis de productos y el análisis de experiencia del usuario (UX). snavarro.tuch@tec.mx

 

Leave a Reply

Your email address will not be published. Required fields are marked *