Más Información
Senado discutirá reformas de Sheinbaum esta semana; votarán nuevas secretarías, extinción de autónomos y delitos que ameritan prisión preventiva
Tras 10 días, liberan a mujer china y a sus tres hijos que estaban retenidos en el AICM; buscan refugio en México
Suman más de 10 mil registros de candidaturas a elección judicial: Noroña; habilitan nuevo medio de postulación por “creciente interés”
Monreal estima reasignaciones por más de 15 mil mdp en Presupuesto de Egresos 2025; se destinarán a "prioridades nacionales"
Diputada del PRI denuncia presunto adeudo de Pemex a proveedores en Campeche; monto asciende a más de 402 mil mdp
El Centro de Regulación Genómica (CRG), la empresa Starlab y la Universidad de Barcelona (UB) presentaron un innovador sistema que convierte las ondas cerebrales de las emociones en sonidos, lo que permite comunicarse a personas con discapacidades profundas, como los afectados de parálisis cerebral.
Este proyecto, llamado "Brain Polyphony", consiste en un casco ("Enobio helmet") que se coloca en la cabeza con neurosensores y medidores cardíacos que transmiten los impulsos eléctricos del cerebro, los latidos y la actividad muscular a un ordenador, que analiza la reacción emocional en tiempo real en función de unos parámetros previamente establecidos.
La responsable del proyecto, la científica del CRG, Mara Dierssen, explicó que este nuevo sistema provee de sonido "las emociones del paciente a través de la actividad eléctrica cerebral (EEG), cardíaca (ECG), muscular (EMG) y de acelerometría".
Según la intensidad de las ondas cerebrales, el ritmo cardíaco, su variación o la actividad muscular, el aparato mide si una persona que no puede expresarse ni verbal ni físicamente siente emociones positivas (felicidad) o negativas (tristeza o enfado) en mayor o menor intensidad.
Según explicó Marcos Quevedo, investigador de CRG-IMIM, este sistema, que se está desarrollando desde marzo, ha sido ensayado con dos pacientes con discapacidad cerebral con buenos resultados.
Según cada caso, los investigadores deciden si se ha de utilizar el patrón EEG, ECG o EMG (o los tres a la vez), realizan un cálculo basal (registran cuál es el estado neutro del paciente) y, a partir de ahí, comienzan con el análisis de las reacciones registradas a partir de estímulos visuales y aditivos en el ordenador.
El investigador de Starlab David Ibáñez ha expresado la voluntad del equipo de "democratizar el proyecto y hacer uso de esta tecnología en un entorno real" para que la gente pueda utilizarlo en su casa.
El investigador del Barcelona Research Art & Creation de la UB, Efraín Foglia, afirmó que este sistema podría llegar a suplantar al cuidador físico de los pacientes con discapacidades, ya que "si el paciente es capaz de controlar respuestas básicas entonces puede llegar a modelar su entorno".
"Brain Polyphony" se trata de un proyecto piloto que cuenta con un año vista para ser desarrollado y aplicado a 15 pacientes más para comprobar su rendimiento, tras el cual esperan poder disponer al menos de un aparato que funcione a pleno rendimiento.
kal