Ciência avança na tecnologia de 'leitura de mente' e gera preocupações éticas

Cérebros estão conversando com computadores e computadores estão conversando com cérebros: nossos pensamentos estão seguros?

PUBLICIDADE

Por Moises Velasquez-Manoff
Atualização:

Jack Gallant nunca se propôs a criar uma máquina para ler a mente. O seu objetivo era mais prosaico. Neurocientista computacional da Universidade da Califórnia, em Berkeley, Gallant trabalhou durante anos para melhorar o nosso conhecimento sobre como o cérebro codifica as informações – por exemplo, que região é ativada quando uma pessoa vê um avião ou uma maçã ou um cachorro – e de que maneira esta atividade representa o objeto que está sendo visto.

No final da década de 2000, os cientistas conseguiram determinam que coisa uma pessoa estaria olhando pela maneira como o cérebro se iluminava –por exemplo, um rosto humano ou um gato. Mas Gallant e seus colegas foram mais longe. Eles descobriram como usar o aprendizado da máquina para decifrar não apenas a classe de coisas, mas que imagem exata um sujeito visualizava. (Que foto de um gato, entre três opções dadas).

Ilustração de Derrick Schultz/The New York Times 

PUBLICIDADE

Um dia, Gallant e seu alunos de pós-doutorado começaram a conversar. Da mesma maneira como você pode transformar um alto-falante em microfone ligando-o em sentido inverso, eles se perguntaram se seria possível reverter a engenharia do algoritmo que haviam desenvolvido a fim de visualizar o que a pessoa estava vendo, unicamente pela atividade cerebral.

A primeira fase do projeto foi treinar a inteligência artificial (IA). Durante horas, Gallant e os colegas mostraram a voluntários imagens fixas de um filme em aparelhos de ressonância magnética funcional. Combinando padrões de ativação cerebral produzidos pelas imagens em movimento, a IA construiu um modelo de funcionamento do seu córtex visual, que analisa as informações captadas pelos olhos. A fase seguinte foi a tradução. Mostrando aos voluntários os clips de filmes, perguntavam ao modelo, considerando tudo o que agora ele sabia a respeito dos seus cérebros, o que achava que eles estariam olhando.

O experimento se concentrava exatamente em uma subseção do córtex visual. Ele não captou o que estava acontecendo em outras partes do cérebro – por exemplo, como a pessoa podia se sentir a respeito do que estava vendo, ou o que ela poderia fantasiar a respeito enquanto estava olhando. Segundo as palavras do Gallant, o experimento foi uma prova primitiva do conceito. E, no entanto, os resultados, publicados em 2011, são notáveis.

As imagens reconstituídas se movem com a fluidez de um sonho. Em sua imperfeição, elas lembram a arte expressionista. (E poucas imagens reconstituídas parecem completamente erradas.) Mas quando bem-sucedidas, representam um realização impressionante: uma máquina que traduz padrões de atividade cerebral em uma imagem em movimento compreensível apara outras pessoas – uma máquina capaz de ler o cérebro.

Gallant ficou emocionado. Quais serão, então, as possibilidades quando se tornar disponível uma tecnologia para uma leitura melhor do cérebro? Pessoas que sofrem de síndrome de encarceramento cerebral, a doença de Lou Gehrig, pessoas incapacitadas por derrames, seriam então beneficiadas por uma máquina capaz de ajudá-las a interagir com o mundo?

Publicidade

Por outro lado, ele ficou apavorado porque o experimento mostrava, de maneira concreta, que a humanidade se encontrava no alvorecer de uma nova era, e que os nossos pensamentos poderiam ser, teoricamente, roubados da nossa mente. O que acontecerá, imaginou Gallant, quando for realmente possível ler os pensamentos de uma pessoa que sequer está consciente deles, quando for possível ver as lembranças das pessoas?

“Trata-se de uma questão realmente preocupante que agora devemos levar a sério”, ele me disse recentemente.

O “boné do Google”

Durante dezenas de anos, comunicamos com computadores usando nossos dedos e olhos, em interfaces via teclados e monitores. Estes instrumentos e os dedos ossudos com que os estimulamos fornecem um limite natural da velocidade da comunicação entre o cérebro humano e a máquina.

CONTiNUA APÓS PUBLICIDADE

Podemos enviar informações somente de maneira tão rápida (e precisa) com que conseguimos digitar ou clicar. O reconhecimento de voz, como o usado pelo Siri da Apple ou pelo Alexa da Amazon, é um passo para uma maior integração ininterrupta do ser humano e a máquina. O passo seguinte, que os cientistas do mundo inteiro buscam, é uma tecnologia que permita que as pessoas controlem os computadores - e tudo que está conectado a eles, inclusive automóveis, braços robóticos e drones – apenas pelo pensamento.

Gallant chama, brincando, o hardware imaginado que poderia fazer isto de “boné da Google”, um boné que receberia comandos silenciosos e faria com que os computadores respondessem adequadamente. O problema é que, para funcionar, este boné precisaria ser capaz de ver, com alguns detalhes, o que está acontecendo nos quase 100 bilhões de neurônios que compõem o cérebro.

A tecnologia que pode facilmente olhar através do crânio, como a máquina de MRI, é muito grande para ser montada sobre a nossa cabeça. Uma tecnologia menos volumosa, como o eletroencefalograma, ou EEG, que mede a atividade elétrica do cérebro por meio de eletrodos presos ao crânio, não oferece a mesma clareza. Um cientista compara isto a olhar na superfície as ondas feitas por um peixe que nada embaixo da água enquanto uma tempestade se desencadeia sobre o lago.

Publicidade

Outros métodos que permitem “ver” no cérebro poderiam incluir a magnetoencefalografia, ou MEG, que mede as ondas magnéticas que emanam fora do crânio por neurônios que os disparam em baixo dele; ou usando luz infravermelha, que penetra no tecido vivo, para inferir a atividade cerebral das mudanças no fluxo sanguíneo. (Os oxímetros de pulso funcionam desta maneira, espalhando uma luz vermelha em baixo do nosso dedo.)

Ainda não sabemos ao certo que tecnologias permitirão a interface cérebro-computador do futuro. E se não está claro como “leremos” o cérebro, é ainda menos claro como “escreveremos” para ele. Esta é a grande meta da pesquisa da máquina cérebro: uma tecnologia que pode transmitir informações diretamente ao cérebro.

Provavelmente estamos muito longe ainda do momento em que poderemos perguntar silenciosamente: “Alexa, qual é a capital do Peru?” e a resposta “Lima” poderá materializar-se na nossa mente. Mesmo assim, começam a aparecer algumas soluções para estes desafios. A pesquisa vem ocorrendo em grande parte no campo da medicina, onde os cientistas trabalham, há anos, para dar a quadriplégicos e a outros pacientes com problemas neurológicos que os tornaram imóveis, maneiras melhores de interagir com o mundo por meio dos computadores.

Mas nos últimos anos, as empresas de tecnologia – Facebook, Microsoft e a Neuralink de Elon Musk – começaram a investir nesse campo. Alguns cientistas estão entusiasmados com esta injeção de energia e recursos. Outros temem que, à medida que esta tecnologia for penetrando no campo do consumo, possa acarretar uma quantidade de consequências indesejadas e possivelmente perigosas, desde danos à privacidade mental à exacerbação da desigualdade.

Rafael Yuste, um neurobiólogo da Universidade de Columbia, fala em dois grandes avanços na área da computação que transformaram a sociedade: a transição dos computadores mainframe do tamanho de uma sala aos computadores pessoais que cabem sobre uma mesa e (depois no colo do usuário), e o advento da computação móvel com os smartphones, nos anos 2000. A tecnologia para a leitura não invasiva do cérebro seria um terceiro grande salto, ele afirma. “Esqueça a crise da covid”, disse o dr. Yuste. “O que está por vir com esta nova tecnologia poderá mudar a humanidade”.

QUERIDO CÉREBRO

Não serão muitas as pessoas que se apresentarão como voluntárias para submeter-se a este novo tipo de cirurgia do cérebro, mesmo que ela contenha a promessa de restituir a mobilidade a pessoas paralisadas. Por isso, quando Robert Kirsch, presidente de engenharia biomédica da Case Western Reserve University, fez este apelo há quase 10 anos, e encontrou uma pessoa que atendia aos critérios e se mostrou disposta, ele soube que estava diante de um pioneiro.

Publicidade

O seu nome era Bill Kochevar, paralisado do pescoço para baixo por causa de um incidente de motocicleta, ocorrido anos antes. O seu lema, como explicou posteriormente, era “alguém terá que fazer a pesquisa”. Àquela altura, os cientistas já haviam inventado aparelhos que ajudavam pacientes paralisados a explorar o grau de mobilidade de que ainda dispunham – lábios, uma pálpebra – para controlar computadores ou mover braços robóticos.

Mas Kirsch procurava algo diferente. Ele quis ajudar Kochevar a mover os seus membros. O primeiro passo foi a implantação de duas matrizes de sensores sobre a parte do cérebro que normalmente controlaria o braço direito de Kochevar. Nos músculos do seu braço foram implantados eletrodos que poderiam receber sinais destes sensores por meio de um computador. Os implantes, e o computador que estava conectado a eles, funcionariam como uma espécie de espinha dorsal eletrônica ignorando a sua lesão.

Uma vez que os músculos do seu braço se fortaleceram – o que foi possível graças a um regime de suave estimulação elétrica enquanto ele dormia – Kochevar, que a esta altura estava paralisado há mais de dez anos, pode alimentar-se e tomar água. Conseguiu até coçar o nariz. Cerca de 20 pessoas no mundo todo que perderam o uso dos membros em acidentes ou por doenças neurológicas têm sensores implantados em seu cérebro.

Muitas, incluindo Kochevar, participaram de um programa chamado BrainGate financiado pelo governo dos Estados Unidos. As matrizes de sensores usadas nesta pesquisa, menores do que um botton, permitem que os pacientes movimentem braços robóticos ou cursores em um monitor apenas com o pensamento. Mas até onde o dr. Kirsch sabe, Kochevar, que morreu em 2017 por razões alheias à pesquisa, foi a primeira pessoa paralisada a recuperar o uso de seus membros por meio desta tecnologia. Dentro de poucos meses, o dr. Kisch e seus colegas darão início à versão 2.0 do experimento.

Desta vez, implantarão seis matrizes menores – mais sensores melhorarão a qualidade do sinal. E em vez de implantar eletrodos diretamente nos músculos dos voluntários, eles os implantarão mais acima, ao redor dos nervos que movem os músculos. Teoricamente, segundo Kirsch, isto permitirá mover todo o braço e a mão.

O principal objetivo em seguida será restaurar a sensação de maneira que as pessoas possam saber se estão segurando uma pedra, ou uma laranja – ou se sua mão chegou perto demais de uma chama. “A sensação é a parte há mais tempo ignorada da paralisia”, afirmou. Anos atrás, os cientistas da Unversidade de Pittsburgh começaram um experimento inovador nesta área com um homem chamado Nathan Copeland, que estava paralisado da parte superior do tórax para baixo.

Eles enviaram informações sensoriais de um braço robótico até a parte do seu córtex que estava relacionada à sensação do tato da sua mão direita. Todo cérebro é um órgão vivo, ondulado, que muda com o tempo. É por isso, que, antes de cada sessão de Copeland, a IA precisa se recalibrar – construir um novo decodificador cerebral. “Os sinais do nosso cérebro mudam”, disse Copeland. “Não são exatamente iguais todos os dias”. E os resultados não foram perfeitos. Copeland os descreveu como “estranhos”, “formigamentos elétricos”, mas também “impressionantes”.

Publicidade

Entretanto, o feedback sensorial foi extremamente importante, por saber que ele havia realmente percebido o que pensava ter percebido. E em termos mais gerais, demonstrou que uma pessoa pode “sentir” uma mão robótica como se fosse a sua, e que esta informação, que vem de sensores eletrônicos, podia ser levada até o cérebro humano.

Embora estes experimentos sejam preliminares, eles sugerem que as peças de uma interface cérebro-máquina que podem “ler” e “escrever” já existem. As pessoas não só podem mover braços robóticos apenas pelo pensamento, como as máquinas também podem, embora de maneira imperfeita, transmitir a informação ao cérebro a respeito do que aquele braço encontra.

Quem sabe quando versões desta tecnologia estarão disponíveis para crianças que querem mover avatares com o pensamento nos videogames ou surfar com o pensamento na rede. As pessoas já podem fazer voar drones com sinais do seu cérebro, portanto, talvez, seja possível que versões rústicas ainda apareçam no mercado nos próximos anos. Mas é difícil exagerar a mudança que esta tecnologia representará para a vida de pessoas com danos na coluna vertebral ou com doenças neurológicas.

Edward Chang, um neurocirurgião da Universidade da Califórnia, em San Francisco, que trabalha no reconhecimento da fala baseado no cérebro, disse que a capacidade de comunicar pode significar a diferença entre a vida e a morte. “Para algumas pessoas, se elas tiverem um meio que lhes permita comunicar, esta poderá ser a razão delas decidirem continuar vivas”, ele disse. “É isto que nos motiva muito no nosso trabalho”.

Em um recente estudo, Chang e seus colegas previram com até 97% de precisão – a melhor porcentagem já alcançada, segundo afirmam – quais foram as palavras que um voluntário pronunciou (de cerca de 250 usadas em um conjunto predeterminado de 50 sentenças) usando sensores implantados que monitoravam a atividade da parte do cérebro que move os músculos envolvidos na fala. (Os voluntários deste estudo não estavam paralisados, eles sofriam de epilepsia e foram submetidos a cirurgia cerebral para tratar da doença; os seus implantes não eram permanentes.)

Chang usou matrizes de sensores semelhantes às do dr. Kirsch, mas é possível que não esteja muito longe um método não invasivo. O Facebook, que financiou o estudo de Chang, está trabalhando em um aparelho semelhante a um capacete que usa luz infravermelha para olhar no interior do cérebro. Mark Chevillet, diretor da pesquisa da interface cérebro-computador da Facebook Reality Labs, me disse em um e-mail que, embora o reconhecimento completo da fala esteja ainda distante, o seu laboratório será capaz de decodificar comandos simples como “home”, “selecionar” e “deletar” nos “próximos anos”.

Este progresso não é possível apenas graças aos avanços na tecnologia cérebro-sensibilidade – pelo ponto de encontro físico da carne e da máquina. A IA é igualmente importante, se não mais. Tentar compreender o cérebro a partir do exterior do crânio é como tentar compreender uma conversação que ocorre dois quartos mais adiante.

Publicidade

O sinal muitas vezes é confuso, difícil de decifrar. Por isso é o mesmo tipo de algoritmos que atualmente permite que um software de reconhecimento da fala consiga ser bem-sucedido na compreensão do discurso falado – incluindo as idiossincrasias individuais da pronúncia e dos sotaques regionais – que agora a tecnologia de leitura do cérebro permite.

Reduzir o impulso

Entretanto, nem todas as aplicações da leitura do cérebro exigem algo tão complexo quando a compreensão da fala. Em alguns casos os cientistas simplesmente mitigam os impulsos.

Quando Casey Halpern, um neurocirurgião de Stanford, estava na faculdade, tinha um amigo que bebia demais. Outro era obeso, mas não conseguia parar de comer. “O controle dos impulsos é um problema comum”, ele disse. Quando era ainda um cientista promissor, ele aprendeu métodos de profunda estimulação do cérebro usados no tratamento da doença de Parkinson. Uma ligeira corrente elétrica aplicada a uma parte do cérebro implicada no movimento podia reduzir os tremores causados pela doença.

Poderia ele aplicar esta tecnologia a um problema de autocontrole inadequado? Trabalhando com camundongos nos anos 2010, ele identificou uma parte do cérebro, chamada nucleus accumbens, em que a atividade aumentava em um padrão previsível, pouco antes que uma cobaia se empanturrasse de comida de alto teor de gordura.

Ele descobriu que poderia reduzir a quantidade que o camundongo comia interrompendo esta atividade com uma ligeira corrente elétrica. Conseguiu reduzir compulsão da comida quando ela se instalava no cérebro do roedor. No início deste ano, ele começou a testar o método em pessoas que sofriam de obesidade que não tiveram bons resultados com outros tratamentos, inclusive cirurgia bariátrica.

Ele implanta um eletrodo em seu nucleus accumbens, conectado a um sistema que originalmente foi desenvolvido para prevenir ataques em pessoas com epilepsia. Como no trabalho de Chang ou Gallant, um algoritmo primeiramente precisa aprender a respeito do cérebro ao qual está ligado – reconhecer os sinais do início da perda de controle.

Publicidade

Halpern e seus colegas treinam o algoritmo deixando que os pacientes experimentem milk-shake, ou oferecendo um bufê das comidas favoritas do paciente, e depois gravam a sua atividade cerebral pouco antes da pessoa se empanturrar. Até o momento, ele concluiu dois implantes.

“O objetivo é ajudar a restaurar o controle”, ele disse. E se isto funcionar na obesidade, que aflige aproximadamente 40% dos adultos nos Estados Unidos, ele planeja testar o aparelho contra a dependência de álcool, cocaína e outras substâncias. O método de Halpern considera como um fato algo que, segundo ele, muitas pessoas têm dificuldade para aceitar: que a falta de controle dos impulso que pode estar subjacente no comportamento do dependente não é uma escolha, mas decorre de uma malformação do cérebro. “Devemos aceitar que se trata de uma doença”, ele afirma.

“Muitas vezes, nós nos limitamos a julgar as pessoas e partimos do pressuposto de que a falha é delas. Não isto que a pesquisa atual sugere que devemos fazer”. Devo confessar que, das numerosas aplicações propostas da interface cérebro-máquina que tenho visto, a do dr. Halpern foi a minha favorita para se extrapolar.

Quantas vidas se desviaram por causa da incapacidade de resistir à tentação da próxima pílula ou da próxima cerveja? E se for possível generalizar a solução de Halpern? E se toda vez que a nossa mente vagueia enquanto escrevemos um artigo, fosse possível, com ajuda do seu implante de concentração, fazê-la voltar à sua tarefa presente, completando finalmente aqueles projetos que podem mudar a vida e que nunca conseguimos acabar?

Estas aplicações continuam fantasias, evidentemente. Mas o simples fato de que esta coisa possa ser possível é, em parte, o que leva o neurobiólogo dr. Yuste a se preocupar com a possibilidade desta tecnologia diluir as fronteiras do que consideramos ser a nossa personalidade. Esta diluição já é um problema, ele destaca.

Os pacientes de Parkinson com implantes às vezes relatam que se sentem mais agressivos do que o normal quando a máquina está “ligada”. Os pacientes deprimidos que se submetem a uma profunda estimulação do cérebro às vezes se perguntam se não teriam deixado de ser eles mesmos. “Você se sente artificial”, um deles afirmou aos pesquisadores. A máquina não implanta ideias na sua mente, como o personagem de Leonardo DiCaprio no filme A Origem, mas aparentemente muda o próprio sentido de identidade.

O que acontecerá se as pessoas não tiverem mais a certeza de que suas emoções são realmente suas ou os efeitos das máquinas às quais estão ligadas? Halpern minimiza estas preocupações que considera exageradas. Tais efeitos fazem parte de muitos tratamentos médicos, ele destaca, como os antidepressivos e estimulantes comumente prescritos. E, às vezes, como no caso do vício sem esperança, mudar o comportamento de uma pessoa é exatamente o objetivo procurado.

Publicidade

No entanto, é difícil esquecer a questão do que poderá ocorrer a longo prazo quando a tecnologia de escrita cerebral pular do campo da medicina para o do consumo. Se meu amplificador de foco existisse, por exemplo, mas fosse muito caro, ele poderia exacerbar o enorme fosso já existente entre os que podem pagar por professores, carros, e universidades caros e os que não podem. “Alguns grupos conseguirão esta tecnologia, e prosperarão”, disse o dr. Yustge. “Esta é realmente uma grave ameaça para a humanidade”.

O NEGÓCIO DO CÉREBRO

“A ideia de que é preciso fazer buracos no crânio para ler o cérebro é maluca,” disse em um e-mail Mary Lou Jepsen, diretora executiva e fundadora da Openwater. A sua companhia está desenvolvendo uma tecnologia que utiliza luz infra-vermelha e ondas ultrassônicas para esquadrinhar o corpo.

Outros pesquisadores simplesmente tentam tornar menos invasivas os métodos invasivos. Uma companhia chamada Synchron procura evitar abrir o crânio ou tocar o tecido cerebral inserindo um sensor através da jugular no pescoço e atualmente está realizando um teste de segurança e viabilidade. Kirsch acha que a Neuralink de Elon Musk é provavelmente a melhor tecnologia de sensores cerebrais em desenvolvimento.

Ela exige uma cirurgia, mas ao contrário da matriz de sensores da BrainGate, é fina, flexível e pode se ajustar à topografia "montanhosa" do cérebro. A esperança é que isto a torne menos corrosiva. Ela também tem filamentos da espessura de um fio de cabelo que afundam no tecido cerebral. Cada filamento contém múltiplos sensores, permitindo teoricamente a captura de mais dados do que matrizes mais achatadas apoiadas sobre a superfície do cérebro.

Ela pode realizar a leitura e a escrita cerebral, e é acompanhada por um robô que assiste o implante. Uma importante dificuldade nos implantes, segundo Gallant, é o fato de que “o nosso cérebro não gosta que se insiram coisas nele”. Com o tempo, as células imunitárias podem invadir o implante cobrindo-o de gosma. Uma maneira de tentar evitar isto é encolher drasticamente o tamanho dos sensores.

Arto Nurmikko, professor de engenharia e física na Brown University, que participa da iniciativa da BrainGate, está desenvolvendo o que chama de neurogrãos – minúsculos sensores de silicone que podem ser implantados, menores do que um punhado de neurônios. Eles são minúsculos demais para serem munidos de baterias, por isso são movidos a micro-ondas que penetram no crânio. Ele prevê que talvez devam ser implantados mil mini-sensores em todo o cérebro.

Publicidade

Até o momento, ele os testou somente em camundongos, mas talvez não devamos ter tanta certeza de que pessoas sadias deixem de se apresentar como voluntárias para uma cirurgia de “aprimoramento mental”. Todos os anos, o dr. Numikko propõe uma hipótese aos seus alunos: mil implantes de neurogrãos que permitiriam que os estudantes aprendessem e comunicassem mais rapidamente; há algum voluntário? “Tipicamente, cerca da metade da classe diz: Claro”, ele conta.

“Isto demonstra em que ponto nos encontramos hoje”. José Carmena e Michel Maharbiz, cientistas da Berkeley e fundadores de uma start-up chamada Iota Biosciences, têm uma versão própria desta ideia, que chamam de “poeira neural”: pequenos implantes para o sistema nervoso periférico – braços, pernas e órgãos além do cérebro.

“É como um Fitbit para o nosso fígado”, disse o dr. Carmena. Eles imaginam tratar doenças inflamatórias estimulando os nervos em todo o corpo com estes minúsculos dispositivos. E onde Nurmikko usa micro-ondas para alimentar os apetrechos, Carmena e Maharbiz preveem o uso de ultrassom para irradiar energia neles. Em geral, afirmam, este tipo de tecnologia será adotada primeiramente no contexto médico e depois passará para a população leiga.

“Nós vamos evoluir e melhorar os seres humanos”, afirmou o dr. Carmena. “Inquestionavelmente”. Mas o exagero permeia este campo, ele alerta. Certamente, Elon Musk afirmou que uma integração mais próxima entre cérebro e máquina contribuirá para ajudar o homem a competir com IAs cada vez mais poderosas. Mas, na realidade, não estamos ainda próximos de um aparelho que possa, por exemplo, ajudar-nos a dominar o Kung Fu instantaneamente, como Keanu Reeves em Matrix.

Como parece o futuro próximo para o consumidor médio? Ramses Alcaide, diretor executivo de uma companhia chamada Neurable, imagina um mundo em que os smartphones enfiados no nosso bolso ou nas mochilas funcionarão como centrais de processamento para o streaming de dados de computadores menores e sensores usados em torno do nosso corpo. Estes aparelhos – óculos que servem de monitores, fones de ouvido que sussurram nos nossos ouvidos – permitirão a interface entre homem e computador.

A Microsoft vende um fone de ouvidos chamado HoloLens que sobrepõe imagens ao mundo, uma ideia chamada “realidade aumentada”. Uma companhia chamada Mojo Vision está trabalhando na produção de lentes de contato que projetam imagens monocromáticas diretamente na retina, um monitor de computador particular sobreposto ao mundo.

E o próprio Alcaide trabalha neste momento no que considera o elemento fundamental desta visão, um aparelho que, um dia, poderá nos ajudar a comunicar silenciosamente com toda a nossa parafernália digital. Ele foi vago a respeito da forma que o produto tomará – ainda não está pronto para ser comercializado – mas destacou que é um fone de ouvido capaz de medir a atividade elétrica do cérebro para detectar “estados cognitivos”, como saber se estamos com fome ou concentrados.

Nós já verificamos compulsivamente o Instagram, o Facebook e o e-mail, embora supostamente sejamos impedidos por nossos dedos carnudos. Perguntei a Alcaide: O que acontecerá quando pudermos verificar compulsivamente a mídia social somente pelo pensamento? Sempre otimista, ele respondeu que a tecnologia de sensores do cérebro, na realidade, poderá ajudar com a incursão digital. O fone de ouvido inteligente poderá sentir que estamos trabalhando, por exemplo, e bloquear os anúncios ou as chamadas telefônicas. “E se o seu computador souber em que você está concentrado?’ ele disse.

“E se realmente ele retirar o bombardeio de sua vida?” Talvez não surpreenda que o dr. Alcaide gostou do programa de ficção científica da HBO Westworld, um universo onde as tecnologias que tornam a comunicação com os computadores mais contínua são coisas comuns (embora ninguém pareça viver melhor por causa dela.) Rafael Yuste, por outro lado, se recusa a assistir ao programa. Ele compara a ideia a um cientista que estuda a covid-19 vendo um filme sobre pandemias. “É a última coisa que quero fazer.” afirmou.

“UMA QUESTÃO DE DIREITOS HUMANOS”

Compreender por que Yuste se preocupa tanto com a tecnologia de leitura do cérebro, ajuda a compreender a sua pesquisa. Ele foi um dos pioneiros de uma tecnologia que pode ler e escrever no cérebro com uma precisão sem precedentes, e sem precisar de cirurgia. Mas ela exige engenharia genética.

Yuste infecta camundongos com um vírus que introduz dois genes nos neurônios dos animais. Um estimula as células a produzir uma proteína que os torna sensíveis á luz infra-vermelha; a outra faz com que os neurônios emitam luz quando são ativados. Depois disso, quando os neurônios se acendem, o dr, Yuste pode ver que eles acenderem. E pode ativar os neurônios com um laser infra-vermelho.

Desse modo, o dr. Yuste pode ler o que está acontecendo no cérebro do camundongo e escrever no seu cérebro com uma precisão impossível com outras técnicas. E, aparentemente, ele pode fazer com que o camundongo “veja” coisas que não estão lá. Em um experimento, ele treinou os camundongos a tomar água com açúcar depois do aparecimento de uma série de barras numa tela.

Ele gravou quis foram os neurônios do córtex visual que se acenderam quando a cobaia via as barras. Depois ativou os mesmos neurônios com laser, mas sem mostrar-lhes as barras. Os camundongos tiveram a mesma reação: tomaram uma bebida. Ele compara o que fez à implantação de uma alucinação. “Nós pudemos implantar nestes camundongos percepções de coisas que eles não tinham visto”, afirmou.

“Nós manipulamos o camundongo, como um boneco”. Este método, chamado optogenética, está longe de ser usado no homem. Principalmente, porque nós temos crânios mais espessos e cérebros maiores, o que torna mais difícil a penetração dos raios infravermelhos. E de um ponto de vista político e regulador, os seres humanos geneticamente modificados se encontram em um patamar mais elevado.

Mas os cientistas estão explorando soluções alternativas – drogas e nanopartículas que tornam os neurônios receptivos à luz infravermelha, permitindo a ativação precisa dos neurônios sem a engenharia genética. O que aprendemos, segundo o dr. Yuste, não é que dentro em breve teremos lasers instalados nas nossas cabeças, que nos tocam “como pianos”, mas que as tecnologias para a leitura do cérebro e possivelmente da escrita cerebral estão se aproximando rapidamente, e a sociedade não está preparada para isto. “Nós achamos que esta é uma questão de direitos humanos”, ele disse.

Em um paper publicado na revista Nature, Yuste e mais 24 signatários, inclusive o dr. Gallant, pediram a formulação de uma declaração dos direitos humanos que tratasse explicitamente dos “neurodireitos” e da ameaça que, segundo eles, é representada pela tecnologia da leitura do cérebro antes que ela se torne difundida.

As informações retiradas do cérebro das pessoas deveriam ser protegidas como informações médicas, afirmou o dr. Yuste, e não exploradas em vista de lucros ou coisa pior. E enquanto as pessoas têm o direito de não se incriminarem com o discurso, nós deveríamos ter o direito de não nos incriminarmos com informações tiradas do nosso cérebro.

O ativismo de Yuste foi motivado, em parte, como ele explicou, pelas grandes companhias que se mostraram repentinamente interessadas na pesquisa do cérebro e da máquina. Digamos que você está usando o seu boné da Google. E como muitos produtos do ecossistema Google, ele coleta informações a nosso respeito, que então usa para ajudar os anunciantes a visá-lo como consumidor alvo com anúncios. Só que agora, não está colhendo os resultados das suas buscas ou sua localização no mapa; está colhendo os seus pensamentos, os seus devaneios, os seus desejos. A quem pertencem estes dados?

Imaginemos que a escrita cerebral seja possível. E há versões menores de engenhocas para a escrita cerebral que, em troca do seu uso gratuito, ocasionalmente “fazem sugestões” diretamente ao nosso cérebro. Como saberemos se os nossos impulsos são de fato nossos, ou se um algoritmo estimulou aquele repentino desejo daquele determinado sorvete ou de bolsas Gucci? “As pessoas tentam manipular-se mutuamente desde o início dos tempos”, disse o dr. Yuste.

“Mas existe uma linha que cruzamos quando a manipulação é dirigida diretamente para o nosso cérebro, porque não teremos condições de dizer que estamos sendo manipulados”. Quando perguntei ao Facebook a respeito das preocupações quanto à questão ética pelo fato de as grandes da tecnologia entrarem no espaço de interface cérebro e computador, Chevillet, da Facebook Reality Labs, destacou a transparência do seu projeto de leitura do cérebro.

“É por isso que conversamos abertamente sobre a nossa pesquisa no campo da B.C.I.(interface cérebro-máquina) – por isso é possível discuti-la em toda a comunidade neuroética enquanto exploramos coletivamente o tipo de inovação responsável nesse campo”, ele disse em um e-mail.

Ed Cutrell, pesquisador principal da Microsoft, que tem também um programa BCI, enfatiza a importância de tratar com cuidado os dados dos usuários. “É preciso que haja uma clara consciência do destino destas informações”, afirmou. “Como estamos lidando cada vez mais com pessoas, até que ponto a informação que estou colhendo é sua?”

Alguns acham que toda esta conversa de ética e de direitos, se não irrelevante, pelo menos é prematura. Cientistas do campo da medicina que trabalham para ajudar pacientes paralisados, por exemplo, já obedecem às leis da HIPAA, que protegem a privacidade do paciente.

Cada tecnologia nova deve passar pelo processo de aprovação da Food and Drug Administration (FDA), que inclui considerações éticas. (Há ainda certa perplexidade a respeito da questão ética, afirma Kirsch. Digamos que você quer implantar um sensor em um paciente que sofre da síndrome do “encarceramento cerebral”. Como obterá o consentimento para a realização da cirurgia que poderá mudar a vida da pessoa para melhor, se ela não consegue se comunicar?”)

Leigh Hochberg, professor de engenharia na Brown University e parte da iniciativa BrainGate, vê as companhias que agora estão se voltando em massa para o espaço do cérebro-máquina como uma bênção. O campo precisa do dinamismo destas companhias – e dos seus recursos, ele disse. As discussões a respeito de ética são importantes, “mas elas não deveriam em momento algum inviabilizar o imperativo de proporcionar neurotecnologias restauradoras a pessoas que poderão beneficiar-se delas”, acrescentou.

Os éticos, afirmou o dr. Jepsen, “devem também pensar no seguinte: A alternativa seria decidir que nós não estamos interessados em um conhecimento mais profundo do funcionamento da nossa mente, na cura de doenças mentais, em compreender de fato a depressão, em vasculhar a mente de pessoas em coma ou com Alzheimer, e aumentar a sua possibilidade de encontrar novas formas de comunicação”.

E há seguramente um imperativo de segurança nacional para seguir adiante. A China tem sua própria versão do BrainGate. Se as companhias americanas não forem pioneiras nesta tecnologia, pensam alguns, as chinesas serão. “Outros a definiram uma corrida às armas cerebrais”, disse Yuste.

Nem mesmo Gallant, que foi o primeiro cientista bem-sucedido ao traduzir a atividade cerebral em uma imagem em movimento do que outra pessoa estava vendo – e que ficou entusiasmado e ao mesmo tempo horrorizado com este tipo de exercício – acha que a abordagem ludita é uma opção. “A única maneira para sair do buraco em que nos encontramos, buraco este provocado pela tecnologia, é produzir mais tecnologia e ciência”, ele disse. “É uma dura realidade da vida”. / TRADUÇÃO DE ANNA CAPOVILLA

The New York Times Licensing Group - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times

Comentários

Os comentários são exclusivos para assinantes do Estadão.