Novo Chip Cerebral Faz Pessoas Paralisadas Voltarem A Falar
- Lidi Garcia
- 18 de jun.
- 4 min de leitura

Cientistas criaram um sistema inovador que permite que pessoas com paralisia, como no caso da esclerose lateral amiotrófica (ELA), voltem a se comunicar usando a própria voz de forma quase instantânea. O sistema capta os sinais do cérebro com microeletrodos e os transforma em palavras e até em tons de voz, como em uma conversa natural. Essa tecnologia traz esperança para que quem perdeu a fala possa conversar de forma mais rápida e expressiva com familiares e amigos.
Interfaces cérebro-computador (ICCs) são tecnologias que têm despertado grande interesse na ciência porque prometem devolver a capacidade de comunicação para pessoas que perderam a fala, seja por doenças neurológicas ou lesões.
Entre essas condições está a esclerose lateral amiotrófica (ELA), uma doença grave que danifica os nervos e causa perda do controle dos músculos, incluindo os que usamos para falar.
Recentemente, um grupo de cientistas da Universidade da Califórnia, em Davis, desenvolveu um sistema revolucionário: uma interface cérebro-computador que permite transformar em tempo real os pensamentos ligados à fala em uma voz audível e até expressiva. Essa tecnologia oferece esperança para que pacientes com paralisia consigam não só se comunicar, mas também expressar emoções e personalidade por meio da voz.

Uma interface cérebro-computador investigacional (BCI) permite que o participante do estudo se comunique por meio de um computador. Fonte: Universidade da Califórnia, Davis
Tradicionalmente, os sistemas que tentam converter sinais do cérebro em palavras ou frases sofriam com um problema importante: o atraso na resposta. Imagine tentar conversar, mas ter que esperar vários segundos até que suas palavras saiam, isso tornava as interações lentas e pouco naturais.
O novo sistema mudou isso ao criar uma espécie de “chamada de voz direta”, em que a conversão do pensamento em fala ocorre quase no mesmo instante em que o paciente tenta falar. O segredo está em um conjunto de 256 microeletrodos implantados na parte do cérebro que controla os movimentos da fala.

Um modelo de cérebro humano mostrando um conjunto de microeletrodos. Os conjuntos são projetados para registrar a atividade cerebral. Fonte: US Davis and Interesting Engeneering
Esses eletrodos são minúsculos sensores que captam a atividade de centenas de neurônios quando o paciente se esforça para formar palavras. Os sinais são enviados para um computador que, com a ajuda de inteligência artificial, decodifica e transforma em som o que a pessoa quis dizer, e faz isso quase sem atraso, com um tempo de resposta de cerca de um quadragésimo de segundo, praticamente igual ao tempo que demoramos para ouvir nossa própria voz ao falar.
O participante do estudo foi um homem de 45 anos com ELA e disartria grave (dificuldade severa na fala). Para ensinar o sistema a “ouvir” seu cérebro, ele foi apresentado a frases em uma tela e orientado a tentar pronunciá-las em voz alta enquanto os cientistas gravavam sua atividade cerebral.

Os pesquisadores coletaram dados enquanto o participante era solicitado a tentar falar frases que lhe eram mostradas na tela do computador.
Com isso, os algoritmos do sistema aprenderam a associar padrões específicos de sinais cerebrais aos sons da fala, incluindo diferenças de entonação, como quando transformamos uma frase em pergunta ou afirmativa, e até tons usados para cantar pequenas melodias.
Isso significa que, além de palavras, o paciente pôde transmitir nuances emocionais e expressivas, como alegria, dúvida ou tristeza, o que torna a comunicação mais humana e autêntica.
O impacto dessa tecnologia vai além de apenas produzir sons. Segundo os pesquisadores, ela permite conversas reais e dinâmicas, em que o paciente pode, por exemplo, interromper alguém, fazer perguntas e responder de imediato, algo que não era possível com as versões anteriores dessas interfaces.

Maitreyee Wairagkar, primeira autora do novo estudo, é cientista de projeto no Laboratório de Neuroprotética da UC Davis.
A voz gerada pelo sistema era, na maioria das vezes, clara o suficiente para que ouvintes entendessem cerca de 60% das palavras corretamente, um resultado muito promissor para um campo ainda em desenvolvimento. Além disso, o sistema conseguiu criar uma voz sintetizada parecida com a que o participante tinha antes de perder a fala, reforçando o aspecto pessoal e emocional da comunicação.
Os cientistas acreditam que essa tecnologia pode transformar a vida de muitas pessoas com paralisia, permitindo que elas recuperem uma parte essencial de sua identidade: a voz. E, embora ainda sejam necessários mais testes e aprimoramentos, o estudo representa um grande passo rumo ao futuro das neuropróteses da fala, combinando avanços em neurociência, engenharia e inteligência artificial para devolver a palavra a quem mais precisa.
LEIA MAIS:
An instantaneous voice-synthesis neuroprosthesis
Maitreyee Wairagkar, Nicholas S. Card, Tyler Singer-Clark, Xianda Hou, Carrina Iacobacci, Lee M. Miller, Leigh R. Hochberg, David M. Brandman, and Sergey D. Stavisky
Nature (2025)
Abstract:
Brain–computer interfaces (BCIs) have the potential to restore communication for people who have lost the ability to speak owing to a neurological disease or injury. BCIs have been used to translate the neural correlates of attempted speech into text1,2,3. However, text communication fails to capture the nuances of human speech, such as prosody and immediately hearing one’s own voice. Here we demonstrate a brain-to-voice neuroprosthesis that instantaneously synthesizes voice with closed-loop audio feedback by decoding neural activity from 256 microelectrodes implanted into the ventral precentral gyrus of a man with amyotrophic lateral sclerosis and severe dysarthria. We overcame the challenge of lacking ground-truth speech for training the neural decoder and were able to accurately synthesize his voice. Along with phonemic content, we were also able to decode paralinguistic features from intracortical activity, enabling the participant to modulate his BCI-synthesized voice in real time to change intonation and sing short melodies. These results demonstrate the feasibility of enabling people with paralysis to speak intelligibly and expressively through a BCI.



Comentários