A comunicação de pacientes com deficiências severas pode ser mais fácil no futuro. Isso é o que mostra um projeto de pesquisa custeado pelo Facebook e conduzido por um grupo de médicos da Universidade da Califórnia em São Francisco (UCSF): durante o estudo, especialistas conseguiram converter sinais cerebrais de fala em frases escritas.

É a primeira vez que se demonstra que a intenção de dizer palavras específicas pode ser extraída da atividade cerebral e convertida em texto de forma suficientemente rápida para manter o ritmo da conversação natural. “Isso não existe no momento”, diz Edward Chang, o neurocirurgião que lidera o estudo.

Por enquanto, o software que faz essa leitura do cérebro funciona apenas com frases para as quais foi treinado. Os cientistas acreditam, entretanto, que o sistema pode ser desenvolvido de forma a decodificar em tempo real o que alguém quer dizer.

A ideia é criar um produto que permita que pacientes paralisados se comuniquem de modo mais fluido. Assim, eles não precisarão de dispositivos que avaliam os movimentos dos olhos e teclados virtuais acionados por espasmos musculares para se comunicarem.

O trabalho teve a participação de três pacientes epiléticos. Antes da cirurgia neurológica marcada para atacar a doença, eles passaram pelo menos uma semana com eletrodos ligados diretamente ao cérebro para mapear a origem das convulsões.

Enquanto estavam no hospital, foram submetidos a testes. Todos eles tinham capacidade de conversar normalmente e a equipe de Chang registrou suas atividades cerebrais durante sessões em que foram feitas nove perguntas e os voluntários tiveram de ler uma lista com 24 respostas potenciais.

A partir desses dados, foram criados modelos computacionais que permitem associar os padrões da atividade cerebral às perguntas feitas aos pacientes e às respostas oferecidas. Depois de treinado, o programa passou a identificar quase instantaneamente a quais perguntas e respostas os sinais cerebrais correspondiam, com 76% e 61% de precisão, respectivamente.

Segundo David Moses, um dos pesquisadores da equipe, é a primeira vez que essa metodologia é utilizada para identificar palavras e frases faladas. “É importante lembrar que nesse estudo foi usado um vocabulário bastante limitado, mas, em pesquisas futuras, esperamos aumentar a flexibilidade e a precisão do que pode ser traduzido.”

Apesar do avanço, há obstáculos pela frente. Um deles é aperfeiçoar o software para que ele possa traduzir sinais cerebrais em falas mais variadas em tempo real. Para isso, os algoritmos terão de ser treinados com mais itens de linguagem e sinais cerebrais correspondentes, o que pode variar para cada paciente.

Outro objetivo é ler frases faladas apenas na mente. Por enquanto, o sistema é capaz de detectar sinais enviados para mover os lábios, a língua, a mandíbula e a laringe — ou seja, o mecanismo da fala. Para alguns pacientes, especialmente os que têm doenças neurodegenerativas, isso pode não ser suficiente e formas mais sofisticadas de ler frases na mente podem ser necessárias.

E o aspecto ético?

Winston Chiong, um especialista em ética neurológica da UCSF, acredita que é importante debater os aspectos éticos futuros desse tipo de sistema. Ou seja, essa metodologia poderia, sem intenção, revelar os pensamentos mais íntimos de um indivíduo?

Para Chang, entretanto, já é suficientemente difícil decodificar o que alguém quer de fato dizer — extrair pensamentos íntimos é praticamente impossível. “Não tenho interesse em desenvolver uma tecnologia para saber o que as pessoas pensam, mesmo que isso fosse possível”, diz. “Por outro lado, se alguém quer se comunicar e não pode, temos a responsabilidade, como cientistas, de restaurar essa habilidade tão fundamental.”

A comunicação de pacientes com deficiências severas pode ser mais fácil no futuro. Isso é o que mostra um projeto de pesquisa custeado pelo Facebook e conduzido por um grupo de médicos da Universidade da Califórnia em São Francisco (UCSF): durante o estudo, especialistas conseguiram converter sinais cerebrais de fala em frases escritas.

É a primeira vez que se demonstra que a intenção de dizer palavras específicas pode ser extraída da atividade cerebral e convertida em texto de forma suficientemente rápida para manter o ritmo da conversação natural. “Isso não existe no momento”, diz Edward Chang, o neurocirurgião que lidera o estudo.

Por enquanto, o software que faz essa leitura do cérebro funciona apenas com frases para as quais foi treinado. Os cientistas acreditam, entretanto, que o sistema pode ser desenvolvido de forma a decodificar em tempo real o que alguém quer dizer.

A ideia é criar um produto que permita que pacientes paralisados se comuniquem de modo mais fluido. Assim, eles não precisarão de dispositivos que avaliam os movimentos dos olhos e teclados virtuais acionados por espasmos musculares para se comunicarem.

O trabalho teve a participação de três pacientes epiléticos. Antes da cirurgia neurológica marcada para atacar a doença, eles passaram pelo menos uma semana com eletrodos ligados diretamente ao cérebro para mapear a origem das convulsões.

Enquanto estavam no hospital, foram submetidos a testes. Todos eles tinham capacidade de conversar normalmente e a equipe de Chang registrou suas atividades cerebrais durante sessões em que foram feitas nove perguntas e os voluntários tiveram de ler uma lista com 24 respostas potenciais.

A partir desses dados, foram criados modelos computacionais que permitem associar os padrões da atividade cerebral às perguntas feitas aos pacientes e às respostas oferecidas. Depois de treinado, o programa passou a identificar quase instantaneamente a quais perguntas e respostas os sinais cerebrais correspondiam, com 76% e 61% de precisão, respectivamente.

Segundo David Moses, um dos pesquisadores da equipe, é a primeira vez que essa metodologia é utilizada para identificar palavras e frases faladas. “É importante lembrar que nesse estudo foi usado um vocabulário bastante limitado, mas, em pesquisas futuras, esperamos aumentar a flexibilidade e a precisão do que pode ser traduzido.”

Apesar do avanço, há obstáculos pela frente. Um deles é aperfeiçoar o software para que ele possa traduzir sinais cerebrais em falas mais variadas em tempo real. Para isso, os algoritmos terão de ser treinados com mais itens de linguagem e sinais cerebrais correspondentes, o que pode variar para cada paciente.

Outro objetivo é ler frases faladas apenas na mente. Por enquanto, o sistema é capaz de detectar sinais enviados para mover os lábios, a língua, a mandíbula e a laringe — ou seja, o mecanismo da fala. Para alguns pacientes, especialmente os que têm doenças neurodegenerativas, isso pode não ser suficiente e formas mais sofisticadas de ler frases na mente podem ser necessárias.

E o aspecto ético?

Winston Chiong, um especialista em ética neurológica da UCSF, acredita que é importante debater os aspectos éticos futuros desse tipo de sistema. Ou seja, essa metodologia poderia, sem intenção, revelar os pensamentos mais íntimos de um indivíduo?

Para Chang, entretanto, já é suficientemente difícil decodificar o que alguém quer de fato dizer — extrair pensamentos íntimos é praticamente impossível. “Não tenho interesse em desenvolver uma tecnologia para saber o que as pessoas pensam, mesmo que isso fosse possível”, diz. “Por outro lado, se alguém quer se comunicar e não pode, temos a responsabilidade, como cientistas, de restaurar essa habilidade tão fundamental.”