Pesquisadores esperam que feito inédito auxilie no avanço de tecnologias para decodificar pensamentos de pessoas com problemas de comunicação, como decorrentes de paralisia ou AVC

Cientistas americanos conseguiram, de forma inédita, recriar um trecho de uma música apenas a partir da atividade cerebral captada de indivíduos enquanto escutavam a canção. O som de “Another Brick in the Wall”, da banda Pink Floyd, é facilmente reconhecido na reconstrução feita pelos pesquisadores da Universidade de Berkeley, nos Estados Unidos. (Ouça abaixo) O estudo em que detalham o trabalho foi publicado nesta semana no periódico PLOS Biology.

O feito permitiu ainda que os cientistas identificassem novas regiões do cérebro ligadas à musicalidade. A expectativa é que a tecnologia no futuro ajude pessoas com problemas de comunicação, já que os avanços que conseguem decodificar pensamentos em texto ainda carecem de fatores como ritmo, ênfase e entonação, que atribuem significado ao que está sendo dito. É o que explica o doutor em Neurociências Rogério Panizzutti, professor do Instituto de Psiquiatria da Universidade Federal do Rio de Janeiro (UFRJ).

— Traduzir o funcionamento da atividade cerebral em falas, movimento, é uma área muito quente e promissora para pessoas com lesões, com questões que interferem na comunicação. Mas basicamente ainda não temos um entendimento completo de como nosso cérebro funciona, nos detalhes mais complexos. Então esse tipo de estudo, que aborda questões específicas, é um passo importante para construir as peças desse quebra-cabeça — diz ele, que é diretor do Laboratório de Neurociências e Aprimoramento Cerebral (LabNACe) da UFRJ.

O novo trabalho teve início ainda em 2008 e 2015, quando médicos do Centro Médico de Albany, nos EUA, recrutaram um total de 29 pacientes para o estudo. Os voluntários se preparavam para uma cirurgia de epilepsia e, por isso, já estavam com eletrodos anexados na superfície do cérebro. Com isso, os responsáveis apenas monitoraram a atividade cerebral enquanto a obra do Pink Floyd tocava.

Agora, quase uma década depois, os neurocientistas da Berkeley pegaram os dados capturados das ondas cerebrais e, com o auxílio de inteligência artificial, os utilizaram para recriar o som que estava na cabeça dos voluntários. O resultado foi um trecho idêntico ao da música, facilmente reconhecível. O feito, segundo eles, foi alcançado pela primeira vez.

Ouça o original e o reconstruído:


Cientistas reconstroem trecho de música do Pink Floyd através de ondas cerebrais

Para o neurologista da Berkeley e professor do Instituto de Neurociência Helen Wills, Robert Knight, é um “resultado maravilhoso” cujo principal ganho é justamente aprimorar as tecnologias que buscam reproduzir mensagens a partir de pensamentos de pacientes, como aqueles com sequela após um AVC ou um quadro de paralisia.

"À medida que todo esse campo de interfaces cérebro-máquina progride, isso oferece uma maneira de adicionar musicalidade a futuros implantes cerebrais para pessoas que precisam (...) Dá a você a capacidade de decodificar não apenas o conteúdo linguístico, mas parte do conteúdo prosódico (da entonação, ritmo, sotaque) da fala, parte do afeto. Acho que é isso que realmente começamos a decifrar", diz ele, principal autor do estudo, em comunicado.

Hoje existe uma série de iniciativas pelo mundo focadas em fazer com que máquinas possam “ler pensamentos”. Esse é o foco inclusive da Neuralink, empresa fundada pelo bilionário Elon Musk, dono do X (antigo Twitter), que recebeu neste ano aval da Food and Drug Administration (FDA), agência reguladora dos EUA, para iniciar testes clínicos de um implante em humanos.

O mais avançado, porém, foi descrito há dois anos por pesquisadores da Universidade da Califórnia San Francisco, nos EUA, na New England Journal of Medicine, sobre um paciente de aproximadamente 30 anos que ficou paralisado após um acidente vascular cerebral (AVC) 15 anos antes.

Chamado de BRAVO1, o homem teve um eletrodo implantado em seu cérebro sobre a área que geralmente controla o trato vocal. Na pesquisa, eram feitas perguntas ao paciente e, enquanto ele tentava respondê-las, o implante registrava a atividade cerebral.

Em tempo real, um algoritmo traduzia essas informações em frases que apareceram numa tela. Foi a primeira vez que cientistas conseguiram de fato “ler os pensamentos”. A tecnologia conseguiu decodificar até 50 palavras, que formavam cerca de mil frases. A precisão variou de 74% a 93%, dependendo da velocidade da resposta. (Veja abaixo).
No entanto, o resultado ainda é uma fala robótica, o que perde muito do significado que aquela pessoa quer transmitir, segundo os pesquisadores. Por isso, o novo trabalho de Berkeley abre um caminho para que essa tradução seja mais próxima à voz exata do indivíduo ao incorporar a musicalidade.

"Decodificação dos córtices auditivos, que estão mais próximos do acústica dos sons, ao contrário do córtex motor, que está mais próximo dos movimentos que são feitos para gerar a acústica da fala, é super promissor. Isso dará um pouco de cor ao que está decodificado”, diz Ludovic Bellier, também autor do estudo.

Busca por métodos menos invasivos

Além disso, outro ponto em que se espera um avanço nos próximos anos é a forma como a atividade cerebral é lida. Esses procedimentos experimentais ainda envolvem tecnologias invasivas, que demandam abrir o cérebro para implantar o dispositivo. Porém, a expectativa é que eles mudem para apenas sensores anexados na cabeça.

Porém, por enquanto, as "técnicas não invasivas simplesmente não são precisas o suficiente hoje", afirma Bellier. "Vamos esperar, para os pacientes, que no futuro possamos, apenas com eletrodos colocados fora do crânio, ler a atividade de regiões mais profundas do cérebro com uma boa qualidade de sinal. Mas estamos longe".

Em maio, pesquisadores da Universidade do Texas, nos EUA, chegaram a publicar na Nature Neuroscience um estudo sobre um sistema de Inteligência Artificial que consegue fazer essa “leitura” por meio da análise de ressonâncias magnéticas funcionais (fMRI), exames não invasivos.

No entanto, o sistema não recria o estímulo palavra por palavra. Em vez disso, capta a essência do que está sendo dito. Além disso, apenas em cerca de metade do tempo produziu um texto que correspondia de forma mais aproximada ao original.


Fonte: O GLOBO