Chang lab/Departamento de Neurocirurgia da UCSF
Chang lab/Departamento de Neurocirurgia da UCSF

Explorando o cérebro para ajudar os que não têm voz

Cientistas criaram sistema que decodifica as intenções vocais do cérebro e as traduz em um discurso consideravelmente compreensível

Benedict Carey, The New York Times

11 de maio de 2019 | 06h00

Milhares de pessoas são obrigadas a recorrer a elaborados meios de comunicação por causa de danos sofridos em acidentes ou na guerra, de derrames ou de doenças neurovegetativas que prejudicaram a fala. Agora, cientistas acabam de informar que criaram uma voz protética virtual, sistema que decodifica as intenções vocais do cérebro e as traduz em um discurso consideravelmente compreensível, sem nenhuma necessidade de mover um músculo, nem mesmo os da boca.

“Trata-se de um trabalho formidável, que representa um avanço para outro nível da restauração da fala” por meio da decodificação dos sinais cerebrais, afirmou o Anthony Ritaccio, neurologista e neurocientista da Clínica Mayo de Jacksonville, Florida, que não participou do grupo de pesquisadores. O novo sistema, descrito recentemente pela revista Nature, decifra  os comandos motores do cérebro que guiam os movimentos vocais durante  fala - o movimento da língua, o estreitamento dos lábios - e gera sentenças inteligíveis próximas da cadência natural de um falante.

Para o teste, cientistas da Universidade da Califórnia, em San Francisco, e da U.C. de Berkeley, recrutaram cinco pessoas que estavam no hospital sendo avaliadas para uma cirurgia de epilepsia. Muitas pessoas com epilepsia reagem escassamente à medicação e optam por submeter-se a uma cirurgia do cérebro. Antes da operação, os médicos devem localizar  “o ponto exato” no cérebro de cada pessoa em que os ataques se originam. Isto é feito com eletrodos que são instalados no cérebro, ou na sua superfície, e ficam ouvindo sinais indicadores de tempestades elétricas.

Localizar estes pontos pode levar semanas. Os pacientes ficam dias com os eletrodos implantados dentro ou na superfície das regiões cerebrais envolvidas nos movimentos e nos sinais auditivos. Cinco destes pacientes da UCSF concordaram em testar o gerador da voz virtual.  Cada um recebeu o implante de um ou dois minúsculos eletrodos, que foram instalados na superfície do cérebro. Cada participante recebeu centenas de sentenças, e os eletrodos gravaram os padrões de disparo dos neurônios no córtex motor. Os pesquisadores associaram estes padrões aos movimentos sutis dos lábios, língua, laringe e maxilar que ocorrem durante a fala natural. A equipe então traduziu esses movimentos em sentenças faladas.

Pessoas que falam o inglês nativo ouviram as sentenças. Elas entenderam cerca de 70% do que foi falado pelo sistema virtual, segundo o estudo. “Decodificando a atividade cerebral que guia as articulações, nós demonstramos que podemos simular uma fala mais precisa e com um som mais natural do que a fala sintetizada baseada nas representações do som do cérebro”, explicou Edward Chang, professor de neurocirurgia da UCSF e autor do novo estudo.

Os sistemas anteriores que utilizavam implantes produziam cerca de oito palavras por minutos. O novo programa gera cerca de 150 palavras por minuto, o mesmo ritmo da fala natural. Pesquisadores constataram também que um sistema de voz sintetizada baseado na atividade cerebral de uma pessoa pode ser usado e adaptado por outra - o que indica que, um dia, poderão estar disponíveis sistemas virtuais.

“Com o constante progresso da ciência, podemos esperar que indivíduos com dificuldades da fala recuperarão sua capacidade de expressar livremente as próprias ideias e reconectar-se com o mundo ao seu redor", escreveram Chethan Pandarinath e Yahia H. Ali, engenheiros biomédicos da Emory Universidade e do Georgia Institute of Technology, em um comentário que acompanhou a experiência. / TRADUÇÃO DE ANNA CAPOVILLA

Encontrou algum erro? Entre em contato

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.