Las nuevas tecnologías llevan años permitiendo a los pacientes con ELA comunicarse después de perder el habla. Stephen Hawking fue un buen ejemplo de ello. Sin embargo, había algo en todas esas tecnologías que resultaba bastante mejorable: se basaban en la escritura y, como tal, la traducción a formato audio tenía cierto retraso. Eso, al fin y al cabo, les impedía interaccionar con fluidez en una conversación. Ahora, en cambio, un equipo de científicos de la Universidad de California Davis ha conseguido desarrollar una interfaz cerebro-máquina que emplea la IA para que estas personas puedan hablar en tiempo real. 

De momento, el implante en cuestión se ha probado con un solo paciente con ELA. Este ha conseguido tener una conversación con sus familiares, dar entonación a las preguntas o las exclamaciones e incluso cantar. Todo eso sin retraso, con las palabras fluyendo desde su cerebro hasta el altavoz.

Se trata de la interfaz cerebro-máquina más avanzada en este sentido hasta el momento. Gracias a la IA no ha sido necesario pasar por el texto escrito, ya que el algoritmo empleado es capaz de relacionar distintos patrones de señales neuronales con vocablos y entonaciones. Es un estudio aún en pañales, en el que solo ha participado una persona. Le queda mucho camino por delante, pero sus inicios están siendo fascinantes.

Los antecedentes del interfaz cerebro-máquina

El uso de interfaces cerebro-máquina para pacientes con enfermedades y lesiones neurológicas no es nada nuevo. Desde decenas de grupos de investigación públicos hasta empresas privadas como la de Elon Musk, Neuralink, son muchos los científicos que han trabajado en el desarrollo de este tipo de dispositivos que hacen la vida más fácil a pacientes con afecciones como la ELA.

Algunos les ayudan a recuperar la movilidad perdida. Otros se centran en el habla. En el pasado se usaban dispositivos que podían ser activados con las partes móviles del cuerpo para escribir en una pantalla lo que se desease. Así es justamente como funcionaba la máquina empleada por Stephen Hawking, cuyo cursor se activaba con la mejilla. Con el tiempo ya no fue necesario que el paciente escribiese nada. Se podían interpretar las señales cerebrales para mover un cursor de forma remota y escribir en una pantalla los pensamientos del paciente. Estos, además, podían traducirse a palabras.

Ahora, en cambio, la IA ha logrado dar un paso más, gracias a algoritmos que se entrenan para asociar el disparo de grupos concretos de neuronas con distintas entonaciones y vocablos. También para determinar cuándo se inicia, continúa o finaliza una frase. Eso es lo que han hecho estos científicos. 

Maitreyee Wairagkar, primer autor del estudio y científico del proyecto en el Laboratorio de Neuroprósisis de UC Davis, operando el sistema cerebro-máquina. Maitreyee Wairagkar, primer autor del estudio y científico del proyecto en el Laboratorio de Neuroprósisis de UC Davis, operando el sistema cerebro-máquina.
Maitreyee Wairagkar, primera autora del estudio y científica del proyecto en el Laboratorio de Neuroprósisis de UC Davis, operando el sistema cerebro-máquina.

¿Cómo ha conseguido la IA que el paciente con ELA vuelva a hablar?

Este dispositivo cerebro-máquina consta de cuatro matrices con electrodos que se implantan en el cerebro de los pacientes. Concretamente en la zona encargada de gestionar el habla. Una vez colocados, primero es necesario entrenar el algoritmo. Para eso, estos científicos hicieron a su paciente intentar pronunciar una serie de frases y expresiones escritas en una pantalla. No podía hacerlo de forma comprensible, dado el estado de avance de la ELA. Sin embargo, las neuronas que dispararon impulsos eléctricos en su cerebro fueron las mismas que si pudiese hablar con corrección. La IA fue capaz de asociar todas esas señales con las frases que se estaban intentando pronunciar y hacer una correlación que más tarde serviría para capacitar la interfaz cerebro-máquina.

Una vez capacitada la IA, cuando el paciente intentaba hablar las señales de su cerebro eran traducidas automáticamente por el dispositivo en forma de palabras, con interjecciones y entonaciones adecuadas. Se entonó tan bien que pudo incluso cantar. Y lo mejor es que el tiempo que pasaba desde que pensaba en lo que decir y lo pronunciaba era exactamente el mismo que cuando nosotros hablamos y oímos lo que decimos. Prácticamente nada. 

Es cierto que a veces no se le entendía. Sin embargo, las personas que escucharon al paciente entendieron todo lo que decía en un 60 % de ocasiones. Cuando intenaba hablar sin la interfaz cerebro-máquina solo lo entendían un 4 % de las veces.

¿Por qué son tan importantes estos dispositivos?

Cuando una persona se intenta comunicar con cierto retraso, es mucho más difícil que participe en una conversación. Por ejemplo, las otras personas pueden interrumpirle una y otra vez, porque no saben exactamente cuándo va a hablar. El propio paciente tampoco puede interrumpir, ya que el hilo de sus pensamientos no coincide con lo que dice. Por eso es tan importante este uso de la IA.

parálisis cerebralparálisis cerebral
El objetivo es usarlo también con pacientes de otras enfermedades, como la parálisis cerebral. Crédito: The National Institutes of Health

Aunque es cierto que aún queda mucho que estudiar. Solo un paciente ha participado en el estudio. Un enfermo de ELA. Sería interesante repetir el proceso con más personas, con otras enfermedades como la parálisis cerebral. Si los resultados se mantienen, será todo un hito. De hecho, incluso con esta breve muestra, podríamos decir que ya lo es. 


Ver fuente