Datasonification Project
Gustavo Magallanes-Guijón


En la investigación científica es natural apoyarse en gráficas (series de tiempo, correlaciones, matrices, etc) para transmitir resultados. Y, hasta cierto punto, es normal que la narrativa de la investigación se haya centrado particularmente en la modalidad visual aprovechando el potencial cognitivo y explicativo de las imágenes. Bien dice el dicho “una imágen dice más que mil palabras”.

Las gráficas o visualización de datos ayudan a construir narrativas y a encontrar y a distinguir patrones, ayudan a comprender la dinámica, estacionalidad, tendencia, información mutua, entropía, entre otros. Sin embargo hay por lo menos un par de consideraciones que trae consigo la visualización de datos. La primera es, que la comunicación no es accesible hacía aquellas personas que son débiles visuales. Y la segunda es que la sola visualización puede no ser suficiente para encontrar patrones con el solo uso de los sentidos.

Atendiendo esto, la sonificación de datos puede ser, además de un método de inclusión en la divulgación científica, un mecanismo adicional para la búsqueda de patrones o regularidades en los registros. Huelga decir que la sonificación de datos está presente en la investigación científica como es el caso de estudio de los patrones de migración del salmón (Hegg et al., 2018) o las fluctuaciones de las ondas cerebrales (Parvizi et al., 2018).

En la astrofísica, por ejemplo, Edward Morgan del Instituto de Tecnología de Massachusetts (MIT) tomó los datos en emisión en rayos X del agujero negro GRS 1915 + 105 y los tradujo en señales de audio, lo que nos permite “escuchar” su disco de acreción (Masseti, M. 2013).

En esta misma dirección en el presente trabajo hemos tomado los datos registrados (o en su defecto reducido) por los observatorios The 40 M Telescope at the Owens Valley Radio Observatory (OVRO) en emisión en radio, The American Association of Variable Star Observers (AAVSO) en óptico, The Neil Gehrels Swift Observatory en rayos-X y The Fermi Gamma-ray Space Telescope en rayos gamma; y además de visualizar los datos, los hemos sonificado con el propósito de divulgar nuestros avances a un espectro aún más amplio de la sociedad, al mismo tiempo que investigamos a través del sentido del oído eventos auditivos que nos ayuden a distinguir periodicidades.

Estamos desarrollando métodos estadísticos y computacionales en la inferencia de agujeros negros binarios. Además de la visualización de datos proponemos la sonificación cómo método de divulgación de nuestros resultados. El ejercicio que estamos presentando aquí es para el análisis multifrecuencia del blazar Mrk 501.

La sonificaicón se logró a un tempo de 80 bpm, C3 de octava, usando una escala d (menor) relativa menor. La programación se llevó a cabo usando el paquete MIDItime 1.1.3 usando el lenguaje de programación Python3.

Finalmente creemos que la comunicación científica debe alcanzar a más sectores de la sociedad, por lo que además de llevar la divulgación en modo visual y auditivo nos interesa llevarlo también más adelante en modo táctil.

Referencias

  • Nik Sawe et al. (2020). Using Data Sonification to Overcome Science Literacy, Numeracy, and Visualization Barriers in Science Communication. Frontiers in communication. En línea en https://www.frontiersin.org/articles/10.3389/fcomm.2020.00046/full Última revisión [15-11-2020].
  • Hegg, J. C., Middleton, J., Robertson, B. L., and Kennedy, B. P. (2018). The sound of migration: exploring data sonification as a means of interpreting multivariate salmon movement datasets. Heliyon 4:e00532. doi: 10.1016/j.heliyon.2018.e00532
  • Parvizi, J., Gururangan, K., Razavi, B., and Chafe, C. (2018). Detecting silent seizures by their sound. Epilepsia 59, 877–884. doi: 10.1111/epi.14043.
  • Masseti, M. (2013). Can You Hear a Black Hole? Official Page National Aeronautics and Space Administration National Aeronautics and Space Administration (NASA). En línea en https://asd.gsfc.nasa.gov/blueshift/index.php/2013/10/29/maggies-blog-can-you-hear-a-black-hole/. Última revisión [15-11-2020].

Última modificación 3 de abril del 2021