Dean Sewell para The New York Times
Dean Sewell para The New York Times

A luta para deter os robôs assassinos

Especialistas divulgaram um relatório apresentando as promessas e armadilhas éticas da adoção da inteligência artificial

Claudia Dreifus, The New York Times

09 de agosto de 2019 | 06h00

Toby Walsh, professor da Universidade de Nova Gales do Sul, em Sydney, é um dos principais especialistas da Austrália no campo da inteligência artificial (IA). Ele e outros especialistas divulgaram um relatório apresentando as promessas e armadilhas éticas da adoção da IA.

O Dr. Walsh, 55 anos, trabalha com a Campanha para Deter os Robôs Assassinos, uma coalizão de cientistas e líderes na defesa dos direitos humanos que busca impedir o desenvolvimento de armas robóticas autônomas. O New York Times conversou com ele pelo telefone e durante uma conferência. Segue abaixo uma versão editada da nossa conversa.

O senhor é cientista. Como se tornou um ativista na luta contra os ‘robôs assassinos’?

Foi algo que aconteceu aos poucos, a partir de 2013. Eu lia muito a respeito do armamento robótico. Percebi que poucos de meus colegas da área de inteligência artificial estavam pensando nos perigos dessa nova categoria de armas. Quando as pessoas pensavam no tema, logo reduziam o perigo dos robôs assassinos como algo de um futuro distante.

Do meu ponto de vista, o futuro já tinha chegado. Drones armados com bombas estavam sobrevoando o Afeganistão. Por mais que os drones fossem controlados por humanos no solo, o salto técnico para torná-los autônomos é pequeno. Assim, em 2015, durante uma conferência científica, organizei um debate a respeito dessa nova classe de armas. Pouco depois, Max Tegmark, que administra o Instituto Futuro da Vida, do MIT, pediu que eu o ajudasse a divulgar uma carta pedindo à comunidade internacional a aprovação de uma proibição preventiva a todas as armas robóticas autônomas. Assinei o documento e, na conferência seguinte a respeito da IA, divulguei a carta. Ao fim da reunião, tínhamos mais de 5.000 assinaturas - incluindo de pessoas como Elon Musk, Daniel Dennett, Steve Wozniak.

Qual foi o raciocínio apresentado?

Afirmei que não podemos aceitar a ideia de máquinas capazes de decidir se um humano vive ou morre. É algo que inaugura um novo terreno. As máquinas não têm nossa bússola moral, nossa compaixão ou nossas emoções. As máquinas não são seres morais.

Do ponto de vista técnico, o raciocínio é que estamos falando de possíveis armas de destruição em massa, e a comunidade internacional proibiu todas as demais armas de destruição em massa, por enquanto.

Por que proibir uma arma antes mesmo da sua produção?

Tudo fica muito mais difícil depois que as armas começam a cair nas mãos erradas ou a ser aceitas como parte das ferramentas do exército. O tratado de 1995 proibindo o laser cegante é talvez o melhor exemplo de proibição preventiva de sucesso.

A quem a petição se endereçava?

Às Nações Unidas.

Quem se opõe ao tratado? 

Os candidatos óbvios são Estados Unidos, Grã-Bretanha, Rússia, Israel, Coreia do Sul. A China defendeu uma proibição preventiva ao uso das armas, mas não ao seu desenvolvimento.

Os defensores das armas robóticas dizem que, ao limitar o envolvimento de combatentes humanos, as máquinas podem tornar a guerra menos mortífera. O problema desse raciocínio é que não temos como programar algo tão sutil quanto o direito humanitário internacional.

Faz tempo que a guerra robótica é tema de filmes de ficção científica. O senhor tem algum favorito?

Não, a maioria dos pesquisadores da área de IA - me incluo entre eles - rejeita a forma com que Hollywood vem lidando com a tecnologia. O filme de Kubrick, “2001”, é um grande equívoco, pois se baseia na ideia de máquinas interessadas na autopreservação, o que resultaria em um comportamento malévolo em relação aos humanos.

É errado supor que elas tentariam assumir o controle ou mesmo preservar a si mesmas. A inteligência que construiremos será bastante diferente da humana, e não terá necessariamente as mesmas falhas de caráter. São máquinas sem consciência nem desejo de autopreservação. Farão exatamente o que lhes dissermos.

Desde 2013, o senhor investe tanto tempo no ativismo quanto na pesquisa científica. Algum arrependimento?

Tenho uma filha de 10 anos. Quando ela crescer, não quero que me pergunte, “Pai, você tinha a voz e o conhecimento para impedir isso… Por que não o fez?”

Tudo o que sabemos sobre:
inteligência artificialarma

Encontrou algum erro? Entre em contato

Tendências:

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.