PUBLICIDADE

Mark Zuckerberg, Elon Musk e a disputa sobre robôs assassinos

Magnatas do Vale do Silício tem opiniões divergentes sobre os avanços da inteligência artificial 

Por Cade Metz
Atualização:

SÃO FRANCISCO - Para Mark Zuckerberg, seu colega bilionário do Vale do Silício, Elon Musk, estava se comportado como um alarmista.

Musk, o empreendedor responsável pela SpaceX e a fabricante de carros elétricos Tesla, estava usando as redes sociais e entrevistas na TV para alertar o mundo que a inteligência artificial poderia “se tornar potencialmente mais perigosa que as armas nucleares".

Alguns acreditam que Nick Bostrom introduziu o medo no debate envolvendo a Inteligência Artificial com seu livro ''Superinteligência: Caminhos, Perigos, Estratégias''. Foto: Tom Jamieson para The New York Times

PUBLICIDADE

Assim, no dia 19 de novembro de 2014, Zuckerberg, o diretor executivo do Facebook, convidou Musk para jantar na sua casa, em Palo Alto, Califórnia. Dois dos principais pesquisadores do Facebook da área de inteligência artificial e dois outros executivos da empresa se juntaram a eles.

Os representantes do Facebook tentaram convencer Musk que ele estava enganado. Mas ele se mostrou irredutível. “Eu realmente acredito que isso representa um perigo", disse Musk aos ali reunidos, de acordo com um dos participantes do jantar, Yann LeCun, pesquisador à frente do laboratório de IA do Facebook.

Os temores de Musk em relação à IA eram simples: se criarmos máquinas mais inteligentes que os humanos, elas podem se voltar contra nós; é preciso levar em consideração as consequências imprevistas daquilo que estamos criando antes de lançar algo assim no mundo.

Nem Musk nem Zuckerberg entraram em detalhes ao falar do jantar, do qual não se tinha notícia até recentemente, nem comentaram a respeito do longo debate entre ambos envolvendo a IA.

A criação de uma “superinteligência” - nome dado a um avanço tecnológico revolucionário capaz de levar a IA a um novo patamar e criar máquinas capazes não apenas de realizar tarefas específicas que costumam exigir a inteligência humana (como os carros autônomos), mas também de superar o pensamento humano - ainda parece algo digno da ficção científica. 

Publicidade

Mas a luta pelo futuro da IA se espalhou por toda a indústria da tecnologia.

Mais de 4.000 funcionários do Google assinaram recentemente uma petição protestando contra um contrato de US$ 9 milhões assinado pela empresa com o departamento de defesa dos Estados Unidos para o desenvolvimento de IA. O acordo era profundamente perturbador para muitos pesquisadores de IA da empresa. Na tentativa de debelar uma rebelião de funcionários, executivos do Google anunciaram no início desse mês que o contrato não seria renovado no ano que vem.

A pesquisa em IA tem imenso potencial e imensas implicações, seja como motor econômico ou como fonte de superioridade militar. Pequim disse estar disposta a gastar bilhões para tornar a China líder mundial em IA, enquanto o departamento de defesa dos EUA está cortejando agressivamente a ajuda da indústria da tecnologia. Uma nova geração de armas autônomas pode não estar muito distante.

Pensadores aprofundados de todo o tipo entraram para o debate, de uma reunião de filósofos e cientistas realizada na costa central da Califórnia até uma conferência anual organizada em Palm Springs, Califórnia, pelo diretor executivo da Amazon, Jeff Bezos.

PUBLICIDADE

“Podemos agora falar dos riscos da IA sem parecer que estamos perdidos na ficção científica", disse Allan Dafoe, diretor de governança do programa de IA do Instituto Futuro da Humanidade, centro de pesquisas da Universidade de Oxford que explora os riscos e oportunidades da tecnologia avançada.

E as críticas do público ao Facebook e outras empresas de tecnologia nos meses mais recentes fizeram muito para chamar a atenção para as consequências indesejadas da tecnologia criada pelo Vale do Silício.

Em abril, Zuckerberg passou dois dias respondendo a perguntas de membros do congresso dos EUA a respeito da privacidade dos dados e do papel desempenhado pelo Facebook na divulgação de informações falsas antes da eleição americana de 2016. Ele foi submetido à sabatina semelhante na Europa no mês passado.

Publicidade

A admissão do Facebook de que a empresa teria agido com demasiada lentidão para entender o que estava acontecendo levou a um raro momento de autorreflexão numa indústria que acredita estar fazendo do mundo um lugar melhor.

Até figuras influentes como o fundador da Microsoft, Bill Gates, e o autor Stephen Hawking, já falecido, expressaram preocupação diante da possibilidade de criarmos máquinas mais inteligentes do que nós. Embora a superinteligência ainda pareça décadas distante, eles e outros disseram que devemos pensar nas consequências antes que seja tarde demais. 

“Os tipos de sistemas que estamos criando são muito poderosos", disse Bart Selman, professor de ciência da computação da Universidade Cornell, em Ithaca, Nova York, e ex-pesquisador da Bell Labs. “E não somos capazes de compreender seu impacto.”

Mensageiro imperfeito

Pacific Grove é uma cidadezinha no litoral da Califórnia. Foi ali que geneticistas se reuniram em 1975 para debater a possibilidade de seu trabalho (edição genética) ser nocivo para o mundo.

A comunidade da IA realizou um evento semelhante ali em 2017.

A reunião particular foi organizada pelo Instituto Futuro da Vida, um centro de estudos estratégicos criado para pensar nos riscos trazidos pela IA.

Publicidade

Os líderes do desenvolvimento da IA estavam presentes - entre eles LeCun, diretor do laboratório de IA do Facebook que estava presente naquele jantar em Palo Alto, e responsável por desenvolver uma rede neural, uma das ferramentas mais importantes da inteligência artificial de hoje. Também estavam ali Nick Bostrom, cujo livro “Superinteligência: Caminhos, Perigos, Estratégias”, de 2014, teve um efeito desproporcional - e alguns diriam paralisante - no debate envolvendo a IA; Oren Etzioni, ex-professor de ciência da computação da Universidade de Washington que assumiu a chefia do Instituto Allen para a Inteligência Artificial, em Seattle; e Demis Hassabis, diretor do influente laboratório de pesquisa em IA, DeepMind, pertencente ao Google, em Londres.

E também estava presente Musk, que em 2015 ajudou a criar um laboratório independente de inteligência artificial, OpenAI, com uma meta explícita: criar uma superinteligência com mecanismos de proteção para garantir que ela não fuja ao controle. Foi uma mensagem que o alinhou claramente com Bostrom.

Durante o retiro, Musk disse: “Estamos avançando, seja para a superinteligência ou para o fim da civilização".

Musk foi indagado como a humanidade poderia manter uma boa convivência com a superinteligência. O que precisamos, disse ele, é uma conexão direta entre nossos cérebros e nossas máquinas. Alguns meses mais tarde, ele lançou uma startup chamada Neuralink para criar esse tipo de interface neural com a fusão entre computadores e cérebros humanos.

Jogadores superados

Há um ditado no Vale do Silício: superestimamos o que pode ser feito em três anos e subestimamos o que pode ser feito em 10.

No dia 27 de janeiro de 2016, o laboratório DeepMind, do Google, apresentou uma máquina capaz de derrotar um jogador profissional no antigo jogo de tabuleiro conhecido como Go. Numa partida disputada pouco tempo depois, a máquina, batizada de AlphaGo, derrotou o campeão europeu Fan Hui numa sequência de cinco rodadas - todas vencidas pelo AlphaGo.

Publicidade

Até os mais experientes pesquisadores do campo da IA tinham calculado que ainda seria necessária mais uma década até que uma máquina fosse capaz de dominar o jogo. O Go é complexo (há mais posições possíveis no tabuleiro do que átomos no universo) e os melhores jogadores não vencem apenas com base no cálculo, recorrendo principalmente à intuição. Duas semanas antes do lançamento do AlphaGo, LeCun dissera que a existência de uma máquina desse tipo era improvável.

Alguns meses mais tarde, o AlphaGo venceu Lee Sedol, o melhor jogador de Go dos últimos dez anos. A máquina fez jogadas que deixaram os especialistas humanos perplexos, mas acabaram levando à vitória.

Muitos pesquisadores acreditam que o tipo de tecnologia com aprendizado autônomo como visto no AlphaGo pode revelar um caminho para a “superinteligência". E eles acreditam que o progresso nessa área vai se acelerar nos próximos anos.

Recentemente, o OpenAI “treinou” um sistema para jogar um jogo eletrônico de corrida de barcos com o objetivo de marcar o maior número possível de pontos. O sistema conquistou os pontos, mas, para isso, andou em círculos, colidindo com paredes de pedra e se chocando contra outros barcos. É o tipo de reação imprevisível que traz graves preocupações para o futuro da IA.

Tensão no relacionamento

Desde o jantar que tiveram três anos atrás, o debate entre Zuckerberg e Musk azedou. Em meados do ano passado, num vídeo ao vivo do Facebook, Zuckerberg descreveu as opiniões de Musk a respeito da IA como “bastante irresponsáveis".

Entrar em pânico diante da IA agora, no início do seu desenvolvimento, pode colocar em risco os muitos benefícios que podem ser obtidos em coisas como carros autônomos e atendimento de saúde assistido por IA, disse ele.

Publicidade

Então Zuckerberg disse: “Não entendo as motivações dos negativistas e das pessoas que tentam exagerar esses possíveis resultados catastróficos".

Musk respondeu no Twitter: “Já conversei com Mark a respeito disso. Seu entendimento do assunto é limitado".

Em seu depoimento ao congresso, Zuckerberg explicou como o Facebook faria para corrigir os problemas que ajudou a criar: valendo-se da inteligência artificial. Mas ele reconheceu que os cientistas ainda não entenderam exatamente como é o aprendizado de alguns tipos de inteligência artificial.

“Essa será uma questão bastante central na nossa forma de pensar os sistemas de IA", disse Zuckerberg. “No momento, muitos de nossos sistemas de IA tomam decisões seguindo critérios que as pessoas não compreendem muito.”

Os pesquisadores alertam que sistemas de IA capazes de gerar de maneira realista vídeos e imagens logo tornarão ainda mais difícil confiar naquilo que vemos na internet. Tanto DeepMind quanto OpenAI agora operam grupos dedicados ao “uso seguro da IA".

Hassabis, fundador do DeepMind, disse que a ameaça da superinteligência não chegou. Não ainda. Mas os problemas do Facebook são um alerta.

“Precisamos usar o tempo de menor atividade, quando as coisas estão calmas, para nos prepararmos para os problemas sérios que virão nas próximas décadas", disse Hassabis. “O tempo que temos agora é valioso, e precisamos aproveitá-lo bem.”

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.