Logo_Zinkinn

Blog

Movimientos por palabras: diseñado un nuevo sistema de comunicación para pacientes con parálisis

Innovación tecnológica
gopalasup

La comunicación es una de las necesidades básicas de todo ser humano, tanto para su supervivencia como para su desarrollo personal. Uno de los grandes retos de la medicina ha sido lograr que pacientes con parálisis grave puedan seguir recurriendo a todas ellas, un afán que ha dado como resultado tecnologías como la empleada por el profesor Stephen Hawking para poder comunicarse a través de un ordenador o sistemas mediante los cuales pacientes encamados pueden expresarse a través de una interfaz guiada por la mirada.

Ahora un dispositivo diseñado por un equipo de investigadores de la Universidad de California San Francisco parece que ha dado ese salto que el desarrollo de estas tecnologías estaba augurando. Gracias a este nuevo sistema, los investigadores han podido reproducir el habla mediante las señales cerebrales que produce los movimientos de la mandíbula, la laringe, los labios y la lengua, descifrando, en suma, los comandos de motricidad que guían el movimiento vocal al hablar.

Presentado en la revista Nature, los investigadores decidieron probar el dispositivo recurriendo a cinco pacientes de epilepsia con electrodos implantados justo en o cerca de regiones cerebrales vinculadas con el movimiento de ondas de audición y movimiento, una intervención habitual en personas a las que no les resulta eficaz el tratamiento mediante medicación.

En una primera fase, el equipo procedió a recabar información sobre las señales neuronales asociadas a cada sonido mediante las matrices de electrodos implantadas. Registrada esta actividad neuronal en la corteza motora cerebral, los patrones fueron posteriormente asociados con los movimientos de los labios, lengua, laringe y mandíbula realizados al hablar con normalidad. Una vez obtenidos ambos datos clave, el equipo convirtió esos movimientos en oraciones habladas generadas a través de una máquina dotada de un sintetizador.

Gopala Anumanchipalli, co-autor del estudio.
 

“Mostramos, al descifrar la actividad cerebral que guía la articulación, que se puede simular un habla más precisa y que suena más natural que la versión sintetizada a partir de la extracción de representaciones del sonido en el cerebro”, ha afirmado Edward Chang, profesor de neurocirugía de la UCSF y co-autor del estudio.

Además, el equipo de investigadores ahondó en la posibilidad de que el sistema de voz prostética pudiese adaptarse a diferentes sujetos partiendo del mismo modelo, obteniendo resultados que apuntaban en esta dirección. Esto (y de perfeccionarse un sistema que los propios científicos han señalado como “prueba de concepto”) podría abrir las puertas a una comercialización general de un sistema que, sin duda, cambiaría la vida de muchos pacientes de parálisis grave.