Muestran avances en neuroprótesis para devolver el ‘habla’ a personas con parálisis
Las personas con trastornos neurológicos, como derrames cerebrales o esclerosis lateral amiotrófica (ELA), se enfrentan a menudo a esta pérdida y los problemas asociados a ella. Hasta ahora, varios estudios habían demostrado que era posible decodificar el habla a partir de las actividades cerebrales de una persona con estas enfermedades, pero solo en forma de texto y con una velocidad, precisión y vocabulario limitados.
Dos artículos reflejan los resultados de dos interfaces cerebro-ordenador (BCI, por sus siglas en inglés) más avanzadas, y capaces de decodificar la actividad del cerebro. Con la ayuda de un dispositivo hacen posible la comunicación oral de pacientes con parálisis.
“Los primeros resultados mostraron que el dispositivo es estable cuando lo evaluamos durante un largo periodo de tiempo, mientras decodificaba 26 palabras clave. Que sea estable significa que podemos entrenar un modelo, y hacer que funcione durante mucho tiempo, sin tener que volver a ejercitarlo. Esto es importante para que los usuarios no tengan que dedicar, constantemente, tiempo al dispositivo antes de usarlo”, explica Sean Metzger, investigador de la Universidad de San Francisco (EE.UU.), y coautor de uno de los trabajos que se evaluó en un paciente con ictus.
Para el estudio utilizaron un método con electrodos que se colocan en la superficie del cerebro y detectan la actividad de muchas células, a lo largo de todo el córtex del habla. Esta BCI decodifica las señales cerebrales para generar tres salidas simultáneas: texto, habla audible, y un avatar que habla. Los investigadores entrenaron el modelo de aprendizaje profundo, para descifrar los datos neuronales recogidos por este paciente con parálisis grave, causado por un derrame cerebral, mientras intentaba pronunciar frases completas en silencio.
Mediante esta neuroprótesis, la traducción de cerebro a texto generó una tasa media de 78 palabras por minuto, que es 4,3 veces más rápida que el récord anterior, y se acerca aún más a la velocidad de una conversación natural. La BCI alcanzó una tasa de error de palabras del 4,9% al descodificar frases de un conjunto de 50, lo que supone 5 veces menos errores que el anterior BCI de voz de última generación.
Las señales cerebrales también se tradujeron directamente en sonidos de voz sintetizados inteligibles que los oyentes no entrenados podían entender, con una tasa de error de palabras del 28 % para un conjunto de 529 frases, y personalizados según el habla del participante antes de la lesión.
La BCI también decodificó la actividad neuronal de los movimientos faciales de un avatar al hablar, así como expresiones no verbales. “Hemos visto que nuestro dispositivo también permite decodificar movimientos motores de las manos, lo que puede ser útil para personas con parálisis de las extremidades, pero por ahora la decodificación es limitada”, explica el científico.
Los autores de este trabajo esperan poder tener listo un dispositivo clínicamente viable en los próximos 5 a 10 años, pero primero deberán validar este enfoque y la tecnología en más participantes, especialmente en aquellos con diferentes condiciones.
El segundo estudio de Nature, también enfocado a transmitir la actividad neuronal a la pantalla del ordenador, emplea una técnica mucho más invasiva. Consistió en colocarle a la paciente, Pat Bennett, un conjunto de pequeños electrodos de silicio insertados en el cerebro, a la vez que entrenaban a una red neuronal artificial para decodificar sus vocalizaciones.
Pat Bennett, que ahora tiene 68 años, fue directora de recursos humanos y practicaba equitación a diario. En 2012 le diagnosticaron esclerosis lateral amiotrófica (ELA), una enfermedad neurodegenerativa progresiva que ataca a las neuronas que controlan el movimiento, provocan debilidad física y, a la larga, parálisis.
El 29 de marzo de 2022, un neurocirujano de la Standford Medicine (EE UU), le colocó dos diminutos sensores, cada uno en dos regiones distintas —ambas implicadas en la producción del habla—de la superficie del cerebro.
Los sensores forman parte de una interfaz cerebro-ordenador intracortical (iBCI). Combinados con el software, traducen la actividad cerebral que acompaña a los intentos de habla con palabras en una pantalla.
Aproximadamente un mes después de la operación, los científicos de Stanford comenzaron a realizar con ella sesiones de investigación dos veces por semana. Al cabo de cuatro meses, los intentos de Bennett se convertían en palabras en una pantalla de ordenador a una velocidad de 62 palabras por minuto, más del triple del récord anterior de comunicación asistida por BCI.
Además, alcanzó una tasa de error del 9,1 % en un vocabulario de 50 palabras, lo que supone 2,7 veces menos errores que el BCI última generación realizado en 2021. Con un vocabulario de 125.000 palabras, la tasa de error fue del 23,8 %, reseña la agencia SINC.
“Este método utiliza la guía de microelectrodos Utah, que tiene la mejor resolución para registrar señales neuronales, a nivel de neuronas individuales. Esto ha permitido un gran aumento del rendimiento en términos de precisión y velocidad para el mayor tamaño de vocabulario para una neuroprótesis del habla, en comparación con trabajos anteriores en este campo”, indica Erin Michelle Kunz, investigadora de la Universidad de Stanford que participa en el estudio.
VTV/MQ/OQ