Foto mostra robô usado para combate com inteligência artificial sendo testado no Novo México, em Defense Advanced Research Projects Agency/Carnegie Mellon via The New York Times
Foto mostra robô usado para combate com inteligência artificial sendo testado no Novo México, em Defense Advanced Research Projects Agency/Carnegie Mellon via The New York Times

Robôs assassinos, cada vez mais usados, são alvo de pressão por proibição

Reunião em Genebra tentou colocar limites no uso de drones e armas e bombas que decidem por conta própria quando atacar

Adam Satariano, Nick Cumming-Bruce e Rick Gladstone, The New York Times, O Estado de S.Paulo

19 de dezembro de 2021 | 05h00

Pode ter parecido um conclave disfarçado das Nações Unidas (ONU), mas uma reunião esta semana em Genebra foi acompanhada com atenção por especialistas em inteligência artificial, estratégia militar, desarmamento e direito humanitário.   

A razão do interesse? Robôs assassinosdrones, armas e bombas que decidem por conta própria, com cérebros artificiais, se atacam e matam – e o que deve ser feito, ou não, para regulamentá-los ou bani-los.

Outrora coisas de filmes de ficção científica como os das franquias “Exterminador do Futuro” e “RoboCop”, os robôs assassinos, mais tecnicamente conhecidos como armas autônomas letais, foram inventados e testados em um ritmo acelerado com pouca supervisão. Alguns protótipos até mesmo foram usados em conflitos reais.

A evolução dessas máquinas é considerada possivelmente um acontecimento de alta importância para os conflitos armados, semelhante à invenção da pólvora e das bombas nucleares.   

Este ano, pela primeira vez, a maioria das 125 nações que fazem parte de um acordo chamado Convenção sobre Armas Convencionais disse que queria limitar os robôs assassinos. Mas a proposta foi contestada pelos países que estão desenvolvendo essas armas, principalmente os Estados Unidos e a Rússia.

A reunião do grupo terminou na sexta-feira com apenas uma vaga declaração sobre a consideração de possíveis medidas aceitáveis para todos. A Campaign to Stop Killer Robots, aliança de organizações não governamentais que tenta proibir o uso desse tipo de arma, disse que a conclusão parecia “drasticamente sucinta”.

O que é a Convenção sobre Armas Convencionais?

Às vezes conhecida como Convenção de Armas Desumanas, trata-se de um conjunto de regras que proíbe ou restringe armas consideradas como causadoras de sofrimento desnecessário, injustificável e indiscriminado, como bombas incendiárias, armas cegantes a laser e minas terrestres que não distinguem entre combatentes e civis. A convenção não tem normas para robôs assassinos.

O que exatamente são robôs assassinos?

As opiniões variam quanto à definição exata, mas eles são amplamente considerados como armas que tomam decisões com pouco ou nenhum envolvimento humano. Melhorias rápidas em robótica, inteligência artificial e reconhecimento de imagem estão tornando tais armamentos possíveis.

Os drones que os EUA têm usado bastante no Afeganistão, Iraque e em outros lugares não são considerados robôs porque são operados remotamente por pessoas, que escolhem os alvos e decidem se vão atirar.

O que chama a atenção neles?

Para os estrategistas de guerra, as armas oferecem a promessa de manter os soldados fora de perigo e tomar decisões mais rápidas do que um ser humano poderia, dando mais responsabilidades no campo de batalha a sistemas autônomos, como drones sem piloto e tanques sem motorista, que decidem de forma independente quando atacar.

Quais são as objeções?

Os críticos argumentam que é moralmente inaceitável atribuir a tomada de decisão letal a máquinas, independentemente da sofisticação tecnológica. Como uma máquina diferencia um adulto de uma criança, um soldado com uma bazuca de um civil com uma vassoura, um combatente inimigo de um soldado ferido ou se rendendo?

“Fundamentalmente, os sistemas de armas autônomas levantam questões éticas para a sociedade quanto à substituição de decisões humanas sobre vida e morte por sensores, software e processamentos de máquinas”, disse Peter Maurer, presidente do Comitê Internacional da Cruz Vermelha e opositor ferrenho dos robôs assassinos, na Conferência em Genebra.

O que dizem aqueles que se opõem a um novo acordo?

Alguns, como a Rússia, insistem que qualquer decisão em relação a limites deve ser unânime – na prática, dando aos opositores o direito de veto.

Os EUA argumentam que as leis internacionais existentes são suficientes e que proibir a tecnologia de armas autônomas seria precipitado. O representante do país na conferência, Joshua Dorosin, propôs um “código de conduta” não vinculativo para o uso de robôs assassinos – uma ideia que os defensores do desarmamento descartaram como uma manobra de retardamento.

Franz-Stefan Gady, pesquisador do Instituto Internacional de Estudos Estratégicos (IISS, na sigla em inglês), disse que “a corrida armamentista por sistemas de armas autônomas já está em curso e não será cancelada tão cedo”.

Existe conflito no sistema de defesa sobre robôs assassinos?

Sim. Ao mesmo tempo que a tecnologia se torna mais avançada, tem havido relutância em usar armas autônomas em confrontos por causa do medo de cometer erros, disse Gady.

“Os comandantes militares podem confiar no julgamento de sistemas de armas autônomas? A resposta atual é claramente ‘não’ e assim permanecerá no futuro próximo”, disse ele.

O debate sobre as armas autônomas chegou até o Vale do Silício. Em 2018, o Google disse que não renovaria um contrato com o Pentágono depois que milhares de seus funcionários assinaram uma carta protestando contra o trabalho da empresa em um programa que usa inteligência artificial para interpretar imagens que poderiam ser usadas para escolher alvos de drones. A empresa também criou novas diretrizes éticas proibindo o uso de sua tecnologia para armas e espionagem.

Outros acreditam que os EUA não estão se mexendo o suficiente para competir com os rivais.

Em outubro, o ex-chefe de software da Força Aérea americana, Nicolas Chaillan, disse ao Financial Times que pediu demissão do cargo devido ao que considerava como um fraco progresso tecnológico dentro das Forças Armadas dos EUA, em particular no uso de inteligência artificial. Ele disse que os formuladores de políticas são desacelerados por questões sobre ética, enquanto países como a China continuam avançando.

Onde as armas autônomas têm sido usadas?

Não há muitos exemplos confirmados em conflitos armados, mas os críticos chamam a atenção para alguns incidentes que mostram o potencial da tecnologia.

Em março, pesquisadores da ONU disseram que um “sistema de armas autônomas letais” tinha sido usado pelo exército apoiado pelo governo na Líbia contra soldados de milícias. Um drone chamado Kargu-2, fabricado por uma empresa de defesa turca, rastreou e atacou caças enquanto eles fugiam de um ataque com mísseis, de acordo com o relatório, que não deixou claro se algum humano estava controlando os drones.

Na guerra de 2020 pelo território de Nagorno Karabakh, o Azerbaijão lutou contra a Armênia com drones de ataque e mísseis que vagavam pelos céus até detectar o sinal de um alvo ao qual tinham sido designados.

O que acontece agora?

Muitos defensores do desarmamento disseram que a conclusão da conferência reforçou o que eles descreveram como uma determinação para pressionar por um novo acordo nos próximos anos, como aqueles que proíbem minas terrestres e bombas de fragmentação.

Daan Kayser, especialista em armas autônomo da PAX, um grupo de defesa pela paz com sede na Holanda, disse que o fracasso da conferência em chegar a um acordo ou até mesmo em negociar sobre os robôs assassinos era “um sinal realmente claro de que a Convenção sobre Armas Convencionais não estava qualificada para a tarefa”.

Noel Sharkey, especialista em inteligência artificial e presidente do Comitê Internacional para Controle de Armas Robôs, disse que o encontro demonstrou que era preferível um novo acordo a mais deliberações da convenção.

“Havia um senso de urgência na sala”, disse ele, “se não houver nenhuma mudança, não estamos preparados para ficar nessa questão por muito tempo”. / TRADUÇÃO DE ROMINA CÁCIA

 

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.