O noso cerebro lembra como formular palabras, aínda que os músculos responsables de pronuncialas en voz alta estean paralizados por unha enfermidade. Grazas á conexión do cerebro cos ordenadores pódese facer realidade o soño de recuperar a comunicación para estes pacientes.
As persoas con trastornos neurolóxicos, como derrames cerebrais ou esclerose lateral amiotrófica (ELA), enfróntanse a miúdo a esta perda e os problemas asociados ela. Ata o de agora, varios estudos demostraran que era posible descodificar a fala a partir das actividades cerebrais dunha persoa con estas enfermidades, pero só en forma de texto e cunha velocidade, precisión e vocabulario limitados.
Dous artigos que recolle a revista Nature esta semana reflicten os resultados de dúas interfaces cerebro-ordenador (BCI, polas súas siglas en inglés) máis avanzados e capaces de decodificar a actividade do cerebro. Coa axuda dun dispositivo fan posible a comunicación oral de pacientes con parálises.
“Os primeiros resultados mostraron que o dispositivo é estable cando o avaliamos durante un longo período de tempo, mentres descodificaba 26 palabras clave. Que sexa estable significa que podemos adestrar un modelo e facer que funcione durante moito tempo sen ter que volver exercitalo. Isto é importante para que os usuarios non teñan que dedicar constantemente tempo ao dispositivo antes de usalo”, explica a SINC Sean Metzger, investigador da Universidade de San Francisco (EE UU) e coautor dun dos traballos que se avaliou nunha paciente con ictus.
“Os primeiros resultados mostraron que o dispositivo é estable cando o avaliamos durante un longo período de tempo”
SEAN METZGER, investigador da Universidade de San Francisco
Para o estudo utilizaron un método con eléctrodos que se colocan na superficie do cerebro e detectan a actividade de moitas células ao longo de todo o córtex da fala. Esta BCI descodifica os sinais cerebrais para xerar tres saídas simultáneas: texto, fala audible e un avatar que fala. Os investigadores adestraron o modelo de aprendizaxe profunda para descifrar os datos neuronais recollidos por esta paciente con parálise grave, causado por un derrame cerebral, mentres tentaba pronunciar frases completas en silencio.
“Isto é posible grazas aos nosos eléctrodos situados na superficie do cerebro, que rexistran decenas de miles de neuronas, polo que son máis resistentes a pequenos cambios no dispositivo ou nos sinais neuronais. Estamos impacientes por ver como evoluciona a estabilidade da descodificación ao longo de períodos de tempo máis prolongados e con tarefas de descodificación máis complexas, pero este é un primeiro indicio prometedor”, asegura Metzger.
Mediante esta neuroprótese, a tradución de cerebro a texto xerou unha taxa media de 78 palabras por minuto, que é 4,3 veces máis rápida que o récord anterior e achégase aínda máis á velocidade dunha conversación natural. A BCI alcanzou unha taxa de erro de palabras do 4,9% ao descodificar frases dun conxunto de 50, o que supón 5 veces menos erros que o anterior BCI de voz de última xeración.
Sons de voz sintetizados e personalizables
Os sinais cerebrais tamén se traduciron directamente en sons de voz sintetizados intelixibles que os oíntes non adestrados podían entender, cunha taxa de erro de palabras do 28% para un conxunto de 529 frases, e personalizados segundo a fala do participante antes da lesión.
A BCI tamén descodificou a actividade neuronal dos movementos faciais dun avatar ao falar, así como expresións non verbais. “Vimos que o noso dispositivo tamén permite descodificar movementos motores das mans, o que pode ser útil para persoas con parálises das extremidades, pero por agora a descodificación é limitada”, explica o científico.
“Ademais de para persoas con ictus como a nosa participante, cremos que pode ser útil para persoas con ELA e con lesións medulares”
SEAN METZGER, investigador da Universidade de San Francisco
En conxunto, esta BCI multimodal ofrece ás persoas con parálises máis posibilidades de comunicarse dunha forma máis natural e expresiva. “Ademais de para persoas con ictus como a nosa participante, cremos que pode ser útil para persoas con ELA, síndrome de enclaustramento e persoas con lesións medulares que inhiben o control da respiración ou a larinxe, necesarios para a fala. A medida que se desenvolva a tecnoloxía, esperamos que sexa útil para outras poboacións de pacientes e permita novas aplicacións”, conclúe Metzger.
Os autores deste traballo esperan poder ter listo un dispositivo clinicamente viable nos próximos 5 a 10 anos, pero primeiro deberán validar este enfoque e a tecnoloxía en máis participantes, especialmente naqueles con diferentes condicións.

Implantes cerebrais
Pola súa banda, o segundo estudo de Nature, tamén enfocado a transmitir a actividade neuronal á pantalla do ordenador, emprega unha técnica moito máis invasiva. Consistiu en colocarlle á paciente Pat Bennett un conxunto de pequenos eléctrodos de silicio inseridos no cerebro, á vez que adestraban unha rede neuronal artificial para decodificar as súas vocalizacións.
Pat Bennett, que agora ten 68 anos, foi directora de recursos humanos e practicaba equitación a diario. En 2012 diagnosticáronlle esclerose lateral amiotrófica (ELA), unha enfermidade neurodexenerativa progresiva que ataca ás neuronas que controlan o movemento, provocando debilidade física e, a longo prazo, parálise.
O 29 de marzo de 2022, un neurocirurxián da Standford Medicine (EE UU) colocoulle dous diminutos sensores, cada un en dúas rexións distintas —ambas implicadas na produción do fala—da superficie do cerebro. Os sensores forman parte dunha interface cerebro-ordenador intracortical (iBCI). Combinados co software, traducen a actividade cerebral que acompaña aos intentos de fala en palabras nunha pantalla.
“Nos pacientes con ELA, as dificultades comezan coa comunicación. Eu son incapaz de falar”
PATT BENNETT, enferma de ELA
“Cando un pensa na ELA, pensa no impacto en brazos e pernas”, explicou Bennett nunha entrevista realizada por correo electrónico. “Pero nos pacientes con ELA, as dificultades comezan coa comunicación. Eu son incapaz de falar”, engade.
Aproximadamente un mes despois da operación, os científicos de Stanford comezaron a realizar con ela sesións de investigación dúas veces por semana. Ao cabo de catro meses, os intentos de Bennett convertíanse en palabras nunha pantalla de ordenador a unha velocidade de 62 palabras por minuto, máis do triplo do récord anterior de comunicación asistida por BCI.
Ademais, alcanzou unha taxa de erro do 9,1% nun vocabulario de 50 palabras, o que supón 2,7 veces menos erros que o BCI última xeración realizado en 2021. Cun vocabulario de 125.000 palabras, a taxa de erro foi do 23,8%.
“Este método utiliza a guía de microeléctrodos Utah, que ten a mellor resolución para rexistrar sinais neuronais, a nivel de neuronas individuais. Isto permitiu un gran aumento do rendemento en termos de precisión e velocidade para o maior tamaño de vocabulario para unha neuroprótese da fala, en comparación con traballos anteriores neste campo”, indica a SINC Erin Michelle Kunz, investigadora da Universidade de Stanford que participa no estudo.
Para a paciente, “estes resultados iniciais probaron o concepto, e co tempo a tecnoloxía poñerase ao día para facelo facilmente accesible ás persoas que non poden falar. Para quen ten este problema, isto significa que poden seguir conectados co mundo, talvez seguir traballando, ou manter amizades e relacións familiares”.
Como funciona o dispositivo
Este dispositivo funciona a través das matrices implantadas que están unidas a finos fíos de ouro que saen a través dunhas conexiónsaparafusadas ao cranio, que se conectan por cable ao ordenador. Un algoritmo de intelixencia artificial recibe e descodifica a información electrónica procedente do cerebro de Bennett, e acaba aprendendo a distinguir a actividade cerebral asociada aos seus intentos de formular cada un dos fonemas que compoñen o inglés falado.
“Será necesario realizar algún tipo de adestramento ou personalización, aínda que prevemos que será mínimo para cada novo usuario”, di Michelle Kunz.
“Está adestrado para saber que palabras deben ir antes que outras e que fonemas forman que palabras”
FRANK WILLETT, investigador da Universidade de Stanford
O sistema introduce a súa mellor estimación da secuencia de fonemas tentados, cun sofisticado sistema de autocorrección, que converte os fluxos de fonemas na secuencia de palabras. “Está adestrado para saber que palabras deben ir antes que outras e que fonemas forman que palabras”, explicou Frank Willett, de Stanford.
Para ensinar ao algoritmo a recoñecer os patróns de actividade cerebral asociados a cada fonema, Bennett someteuse a unhas 25 sesións de adestramento, dunhas catro horas de duración cada unha, durante as cales tentou repetir frases elixidas ao azar dun gran conxunto de datos, formadas por mostras de conversacións entre persoas que falaban por teléfono. Todo o sistema foi mellorando a medida que se familiarizaba coa actividade cerebral da paciente durante os seus intentos de falar.
“Imaxinen o diferente que será realizar actividades cotiás como ir de compras, acudir a citas, pedir comida, entrar nun banco, falar por teléfono, expresar amor ou aprecio —mesmo discutir— cando poidan comunicar os seus pensamentos en tempo real”, expresa Bennett.
“Trátase dunha proba científica de concepto, non dun dispositivo real que a xente poida utilizar na vida cotiá”, sinala Willett. De momento o dispositivo descrito ten licenza para uso exclusivo en investigación e non está dispoñible comercialmente.
Referencias:
- A high-performance speech neuroprosthesis (Publicado en Nature)
- A high-performance neuroprosthesis for speech decoding and avatar control (Publicado en Nature)