top of page

Decifrando o Silêncio: Como a Ciência Está Traduzindo Pensamentos em Palavras


A comunicação é uma parte essencial da vida humana, permitindo que expressemos nossos pensamentos, sentimentos e necessidades. No entanto, algumas doenças neurológicas podem prejudicar severamente essa capacidade.


Por exemplo, condições como a esclerose lateral amiotrófica (ELA) ou um acidente vascular cerebral (AVC) que afete o tronco cerebral podem levar a um quadro conhecido como síndrome do encarceramento. 


Nessa situação, a pessoa fica completamente paralisada, incapaz de falar ou se movimentar, mas continua consciente e com suas funções cognitivas preservadas. Isso pode ser extremamente angustiante, pois a pessoa entende tudo ao seu redor, mas não consegue se comunicar.

Felizmente, avanços na tecnologia têm oferecido novas esperanças para esses pacientes. As interfaces cérebro-máquina (ICMs), também chamadas de interfaces cérebro-computador, são dispositivos que permitem que pessoas com paralisia grave consigam se comunicar apenas por meio da atividade cerebral. 


Essas tecnologias têm avançado bastante nos últimos anos, especialmente as que tentam traduzir diretamente os sinais cerebrais relacionados à fala. Em outras palavras, essas interfaces buscam decodificar o que a pessoa deseja dizer, seja analisando os sons das palavras (fonemas), os movimentos que os músculos fariam para falar ou até mesmo a forma como o cérebro cria a fala.


A maioria dos estudos sobre interfaces cérebro-máquina foca no lobo frontal do cérebro, mais especificamente nas regiões que controlam os movimentos necessários para a fala. Esses locais incluem áreas responsáveis pela movimentação da boca, língua e cordas vocais. 

No entanto, há indícios de que outras regiões do cérebro, como os lobos parietal e temporal, também desempenham um papel importante na fala. Essas áreas são tradicionalmente associadas à compreensão e ao processamento da linguagem, mas alguns pesquisadores acreditam que elas também podem estar envolvidas na intenção de falar, ou seja, no desejo e na preparação para iniciar a fala.


Se isso for verdade, esses achados podem ter um impacto muito positivo no desenvolvimento das interfaces cérebro-máquina. Primeiro, poderiam ajudar a tornar esses dispositivos mais eficazes e precisos. 


Além disso, poderiam ampliar o número de pessoas que se beneficiariam dessa tecnologia, incluindo aquelas que sofreram danos no lobo frontal e, portanto, não conseguem enviar sinais dessa região para um interfaces cérebro-máquina convencional.


Isso poderia ajudar, por exemplo, pacientes que desenvolveram afasia (dificuldade de falar e entender a linguagem) após um AVC ou uma lesão cerebral.


No entanto, um desafio importante é diferenciar os sinais cerebrais relacionados à produção da fala daqueles ligados à percepção e compreensão. Isso porque, no dia a dia, o cérebro processa tanto a nossa própria fala quanto a fala de outras pessoas ao nosso redor. 


Um interfaces cérebro-máquina eficiente precisa ser capaz de captar apenas o que a pessoa quer dizer, sem interpretar erroneamente pensamentos internos ou palavras ditas por outros.


Essa distinção também é essencial para garantir que a tecnologia respeite a privacidade e a autonomia do usuário, evitando dilemas éticos, como a decodificação de pensamentos que a pessoa não quer expressar.


Para investigar essas questões, pesquisadores da Northwestern University, USA, utilizaram gravações intracranianas, um método que registra diretamente a atividade elétrica do cérebro com alta precisão. 


Os participantes do estudo eram pacientes que precisavam de monitoramento intracraniano devido a epilepsia resistente ao tratamento (4 homens e 4 mulheres) ou que passaram por cirurgias para remoção de tumores cerebrais enquanto estavam acordados (1 homem). Nenhum deles apresentava dificuldades na fala. 

Para os pacientes com epilepsia, os eletrodos foram implantados conforme a necessidade clínica, utilizando eletrocorticografia (ECoG) na superfície do cérebro ou eletrodos de profundidade em áreas específicas.


Já no paciente com tumor, os eletrodos foram posicionados sobre os lobos temporais e parietais, sempre mantendo uma distância segura de pelo menos dois giros (dobras do cérebro) em relação ao tumor.


Os participantes que estavam sendo monitorados para localização de convulsões receberam eletrodos clínicos padrão, com espaçamento de 1 cm entre eles e diâmetro de 2,3 mm. Já os participantes submetidos à cirurgia receberam conjuntos de eletrodos mais densos, com espaçamento de 5 mm, organizados em uma grade de 8×8, cobrindo as áreas temporais e/ou parietais conforme a exposição do cérebro permitia.

Gravação sincronizada de ECoG e dados acústicos. Imagem: Peter Brunner. CC BY 4.0


A localização exata dos eletrodos foi determinada por meio de tomografias computadorizadas feitas antes e depois do procedimento, garantindo a precisão da análise.


Nos casos em que os eletrodos de profundidade estavam posicionados em áreas de substância branca (que não são o foco da pesquisa), esses foram removidos da análise.

Locais de eletrodos para cada participante. Eletrodos com ruído extenso foram removidos.


Eles analisaram se, quando e onde os sinais cerebrais relacionados à intenção da fala estavam presentes nos lobos temporal e parietal. Além disso, usaram métodos de análise para distinguir os sinais de fala da atividade cerebral ligada a outros processos, como compreensão da linguagem e memória.


Os resultados mostraram que os lobos temporal e parietal realmente contêm informações relacionadas à intenção da fala, e essas informações podem ser identificadas antes mesmo da pessoa começar a falar. Isso significa que essas regiões cerebrais não estão envolvidas apenas na percepção e compreensão da linguagem, mas também na produção da fala. 


Os pesquisadores encontraram sinais de intenção de fala distribuídos em diversas áreas desses lobos, incluindo o giro temporal superior, o giro temporal médio, o giro angular e o giro supramarginal.


Esses achados são muito significativos porque indicam que os interfaces cérebro-máquina da fala podem ir além do lobo frontal e explorar novas áreas cerebrais para decodificar a comunicação.


Isso pode tornar a tecnologia mais acessível para pacientes que sofreram danos na região frontal do cérebro e expandir as possibilidades de tratamento para um maior número de pessoas. 


No futuro, dispositivos que utilizam essas novas descobertas poderão oferecer uma forma mais eficiente e natural de comunicação para aqueles que perderam essa habilidade devido a doenças neurológicas.



LEIA MAIS:


Decoding speech intent from non-frontal cortical areas

Prashanth Ravi Prakash, Tianhao Lei, Robert D Flint, Jason K Hsieh, Zachary Fitzgerald, Emily Mugler, Jessica Templer, Matthew A Goldrick, Matthew C Tate, Joshua Rosenow

Journal of Neural Engineering, Volume 22, Number 1. 13 February 2025

DOI 10.1088/1741-2552/adaa20


Abstract:


Objective. Brain machine interfaces (BMIs) that can restore speech have predominantly focused on decoding speech signals from the speech motor cortices. A few studies have shown some information outside the speech motor cortices, such as in parietal and temporal lobes, that also may be useful for BMIs. The ability to use information from outside the frontal lobe could be useful not only for people with locked-in syndrome, but also to people with frontal lobe damage, which can cause nonfluent aphasia or apraxia of speech. However, temporal and parietal lobes are predominantly involved in perceptive speech processing and comprehension. Therefore, to be able to use signals from these areas in a speech BMI, it is important to ascertain that they are related to production. Here, using intracranial recordings, we sought evidence for whether, when and where neural information related to speech intent could be found in the temporal and parietal cortices Approach. Using intracranial recordings, we examined neural activity across temporal and parietal cortices to identify signals associated with speech intent. We employed causal information to distinguish speech intent from resting states and other language-related processes, such as comprehension and working memory. Neural signals were analyzed for their spatial distribution and temporal dynamics to determine their relevance to speech production. Main results. Causal information enabled us to distinguish speech intent from resting state and other processes involved in language processing or working memory. Information related to speech intent was distributed widely across the temporal and parietal lobes, including superior temporal, medial temporal, angular, and supramarginal gyri. Significance. Loss of communication due to neurological diseases can be devastating. While speech BMIs have made strides in decoding speech from frontal lobe signals, our study reveals that the temporal and parietal cortices contain information about speech production intent that can be causally decoded prior to the onset of voice. This information is distributed across a large network. This information can be used to improve current speech BMIs and potentially expand the patient population for speech BMIs to include people with frontal lobe damage from stroke or traumatic brain injury.

Comments


© 2020-2025 by Lidiane Garcia

bottom of page