08/07/2015 - Nota de prensa
Los científicos están desarrollando un sistema que traduce las ondas cerebrales en sonido. Hasta el momento es el único sistema que consigue crear sonido en base a las emociones sin necesidad de control motor por parte del paciente.
Científicos del Centro de Regulación Genómica (CRG), la empresa de investigación Starlab, el grupo BR::AC (Barcelona Research Art & Creation) de la Universidad de Barcelona y el Instituto Hospital del Mar de Investigaciones Médicas (IMIM) desarrollan una herramienta que permite la sonificación de señales cerebrales.
El equipo, absolutamente interdisciplinar y liderado por la Dra. Mara Dierssen, jefe del grupo Neurobiología Celular y de Sistemas en el CRG, persigue como último objetivo desarrollar un sistema de comunicación alternativa para que las personas con parálisis cerebral puedan comunicarse y, concretamente en esta fase del piloto, comunicar sus emociones. Para llevar a cabo el proyecto, los científicos cuentan con voluntarios sanos y también colaboran con la Asociación Pro-Personas con Discapacidades Físicas y Psíquicas de Sant Cugat del Vallès (ASDI).
“A nivel neurocientífico, el reto que nos planteamos con Brain Polyphony es ser capaces de identificar los correlatos electroencefalográficos, es decir la actividad cerebral que se relaciona con sentir determinadas emociones. La idea es traducir dicha actividad en un sonido y utilizar este sistema para permitir a los pacientes comunicarse con las personas de su entorno. Este sistema de comunicación alternativo también puede servir la rehabilitación de pacientes pero la sonificación podría tener otras aplicaciones, por ejemplo, para el diagnóstico”, ha comentado Mara Dierssen, responsable del proyecto. Y ha añadido “Por supuesto, el reto también es tecnológico y computacional. Debemos conseguir que tanto el dispositivo como el software que traduce dichas señales funcionen de forma que tengamos una señal robusta y reproducible para poder ofrecer dicho sistema de comunicación a cualquier paciente".
Actualmente existen sistemas de transducción de señales (interfaces cerebro-ordenador) que se empiezan a ensayar en personas con discapacidad, pero la mayoría necesitan control motor, por ejemplo, utilizando el movimiento de los ojos. Ello supone una gran limitación para pacientes con parálisis cerebral que en muchas ocasiones sufren espasticidad o no consiguen controlar ningún aspecto motor de su cuerpo. Estas personas quedan excluidas y no pueden usar dichos sistemas. Otra limitación de la mayoría de estos dispositivos es que no permiten un análisis en tiempo real, es decir, requieren un postprocesado de la información pasado un tiempo desde que el usuario ha emitido la señal.
La propuesta que han presentado los investigadores hoy permite el análisis en directo desde el momento en que el usuario se coloca la interfaz.
El sonido de nuestro cerebro
A diferencia de los sistemas de sonificación de señales cerebrales existentes, Brain Polyphony permite escuchar directamente las ondas cerebrales. “Por primera vez utilizamos el propio sonido de las ondas cerebrales. Las octavamos (como si se amplificaran) hasta conseguir llegar al rango audible al oído humano, de modo que lo que oímos es realmente lo que sucede en nuestro cerebro. El proyecto persigue conseguir este sonido e identificar un patrón reconocible para cada emoción que podamos trasladar a un código de palabras. Y todo ello sucede en el mismo instante y en vivo” ha explicado David Ibáñez, investigador y project manager de Starlab.
En estos momentos, la herramienta se ha probado con personas sanas y se ha empezado a ensayar con pacientes cuyos resultados están siendo sorprendentes. La herramienta también estuvo presente en la pasada edición del Sónar en Barcelona donde sumándose a la expresión artística del evento permitía a los usuarios “escuchar” la música que emiten sus emociones.
En este sentido, Efraín Foglia, investigador de BR:AC (Barcelona Research Art & Creation) de la Universidad de Barcelona, añadía: “El mero hecho de ser capaces de oír “hablar” a nuestro cerebro ya es una experiencia compleja e interesante. Con Brain Polyphony somos capaces de escuchar la música que se emite directamente desde el cerebro. Una nueva forma de comunicación que adquiere una dimensión única si además ello nos permite conseguir que las personas con parálisis cerebral puedan comunicarse”.
De la ciencia al mercado, un reto para los centros de investigación
El proyecto es un ejemplo más de la importancia de la colaboración entre disciplinas científicas y un caso de éxito en llevar la investigación básica a la sociedad. Brain Polyphony ha sido fruto de una iniciativa interna del Centro de Regulación Genómica (CRG) que busca fomentar la transversalidad y multidisciplinariedad de la investigación básica orientada a los pacientes y a la sociedad, especialmente en un primer estadio.
“Desde el centro fomentamos que nuestros investigadores propongan proyectos traslacionales y colaborativos que deben contar con la participación de otros grupos clínicos o de empresas del sector de la salud. Para ello creamos una convocatoria interna que ofrece financiación adicional, una primera semilla para que puedan llevar a cabo proyectos e ideas arriesgados e innovadores en esa línea. La idea es animarles a probar con un proyecto inicial que, un año más tarde pueda dar el salto a convocatorias de fondos competitivos más ambiciosas. Brain Polyphony es un ejemplo de la importancia por la apuesta institucional hacia proyectos de este tipo y del compromiso del CRG en este sentido”, ha concluido Michela Bertero, responsable de asuntos científicos e internacionales del Centro de Regulación Genómica.
Servei de Comunicació:
Marta Calsina Freixas(ELIMINAR)
Tel:
(+34) 93 316 06 80
Doctor Aiguader, 88
08226 Barcelona
© Institut Hospital del Mar
d'Investigacions MèdiquesAviso legal y Política de Privacidad | Política de cookies | Mapa Web | Accesibilidad | Dirección y accesos | Contacto