Indivíduos com doenças neurodegenerativas frequentemente apresentam perda de comunicação, deixando-os presos em sua própria mente. A decodificação dos sinais cerebrais, que outrora movimentavam a fala, é uma maneira de dar voz a essas pessoas, mas até pouco tempo atrás, as gravações neurais captavam somente a recepção do código, já embaralhada pela complexa estrutura espaço-temporal cerebral.
Para resolver esta limitação, uma equipe colaborativa de neurocientistas, neurocirurgiões e engenheiros da Universidade Duke, nos Estados Unidos, desenvolveu uma prótese cerebral que pode traduzir os sinais diretos de uma pessoa no que ela está tentando dizer. Trata-se de um novo dispositivo, detalhado no periódico Nature Communications, feito com plástico flexível de uso médico do tamanho de um selo postal, acoplado com impressionantes 256 sensores cerebrais microscópicos.
“Há muitos pacientes que sofrem de distúrbios motores debilitantes, como ELA (esclerose lateral amiotrófica) ou síndrome de encarceramento, que podem prejudicar a sua capacidade de falar”, disse Gregory Cogan, professor de neurologia na Faculdade de Medicina da Universidade Duke e principal autor do trabalho. “Mas as ferramentas atuais disponíveis para permitir a comunicação são geralmente muito lentas e complicadas”, completou.
Teste do Dispositivo
Neurônios separados por apenas um grão de areia podem ter padrões de atividade totalmente diferentes ao coordenar a fala. Por isso, é necessário distinguir sinais de células cerebrais vizinhas para ajudar a fazer previsões precisas sobre a fala pretendida.
O experimento exigiu que os pesquisadores colocassem o dispositivo temporariamente em quatro pacientes que estavam sendo submetidos a uma cirurgia cerebral devido a alguma outra condição, como o tratamento da doença de Parkinson ou a remoção de um tumor.
A tarefa era uma atividade simples de ouvir e repetir. Os participantes escutavam uma série de palavras sem sentido, como “ava”, “kug” ou “vip”, e depois falavam cada uma delas em voz alta. O dispositivo registrou a atividade do córtex, motor da fala de cada paciente, coordenando quase 100 músculos que movem os lábios, a língua, a mandíbula e a laringe.
Depois, os cientistas alimentaram esses dados neurais gravados em um algoritmo de machine learning para verificar a precisão que ele poderia prever e qual som estava sendo produzido, com base apenas nas gravações da atividade cerebral.
Para alguns sons e participantes, como o “g” na palavra “gak”, o decodificador acertou 84% das vezes. A precisão caiu, porém, à medida que o decodificador analisava os sons no meio ou no final de uma palavra sem sentido. Também foi difícil identificar dois sons semelhantes, como “p” e “b”. No geral, o decodificador foi preciso em 40% das vezes.
O algoritmo de decodificação de fala, entretanto, funcionou com apenas 90 segundos de dados falados do teste de 15 minutos. “Embora o trabalho seja encorajador, ainda há um longo caminho a percorrer para que a prótese de fala chegue às prateleiras”, disseram os pesquisadores. Mas já é uma esperança!