Robôs assassinos, a nova ameaça

Publicado em 06/07/2018 por Outras Palavras

O salão internacional da indústria de armamentos Eurosatory abriu suas portas dia 11 de junho ao norte de Paris. Ao lado dos tradicionais canhões e mísseis, a feira deve dar lugar de destaque à terceira grande ruptura tecnológica no campo militar: depois da pólvora e depois a bomba nuclear, é chegado o tempo dos robôs armados e cada vez mais autônomos. Essa “inovação” é tema de um intenso debate. Que grau de autonomia podemos dar a uma máquina para identificar e atacar um alvo? Deveríamos já proibir essas armas? Centenas de cientistas e ONGs de defesa de direitos estão em alerta.

O Eurosatory, um dos maiores salões internacionais de armamentos, abriu neste 11 de junho em Paris. É uma oportunidade para descobrir como a indústria militar está renovando a biodiversidade planetária à sua maneira… O conceito de uma arraia de titânio e alumínio dotada de câmeras de vigilância e repleta de explosivos foi desenvolvido na Turquia. Um drone tipo morcego foi projetado por cientistas norte-americanos. Enxames de nano-drones, não maiores que insetos e capazes de atacar em grupos e independentemente, são testados pelo Exército dos EUA. No lado chinês, há grupos de robôs, semelhantes a cardumes de peixes, que são liberados em mar aberto.

“Cão robô”, tanque pilotado à distância ou robô sentinela autônomo

Esses programas de pesquisa podem parecer anedóticos. São no entanto o relfexo de uma ruptura tecnológica em curso que abala o mundo militar: a revolução robótica, ou “robolução” segundo Gérard de Boisboissel, secretário geral da cátedra de cyberdefesa e de cybersegurança da Escola Militar de Saint-Cyr, a mais famosa da França. “Desde os anos 2000, há pesquisas sobre a miniaturização, os processadores. A Direção Geral de Armamentos da França trabalha com start-ups. Nós caminhamos para sistemas de armas cada vez mais autônomos”, estima Tony Fortin, do Observatório dos Armamentos.

Exemplo emblemático da tendência: os drones armados, novos acessórios indispensáveis sobre os campos de batalha e cujos assassinatos a distância foram controversos por vários anos (leia, em Outras Palavras, “Drones: dossiê de uma guerra suja”). A seu lado, encontra-se uma miríade de robôs de guerra, como Dogo, pequena máquina israelense montada em lagartas e armada com uma pistola 9mm; Spot, o “cão robô” que acompanha os marines norte-americanos; ou Uran-9, um tanque russo armado pilotado à distância e já posicionado na Síria. Sem esquecer o soldado SGR-A1, um robô militar sentinela desenvolvido pela Samsung que vigia a fronteira entre as Coreias do Sul e do Norte. Ele é capaz de detectar alvos e disparar automaticamente.

Dar o poder de matar a um algoritmo?

“Muitos soldados ficaram traumatizados com a experiência de combate corpo-a-corpo, particularmente em Kosovo. Para os Estados e os estados-maiores, a robotização permite que os soldados guardem distância, evitando mortes e traumas que geram polêmica”, analisa Tony Fortin. Para a empresa de defesa Thales, a inteligência artificial permite “retirar o humano de tarefas monótonas, sujas ou perigosas”. Ao robô o trabalho sujo! Outro argumento dos defensores da “robolução”: as máquinas seriam mais rápidas, previsíveis e desprovidas de sentimentos como o estresse, a tensão, a raiva… Em suma, despojadas de qualquer afeto que possa influenciar as decisões, elas seriam mais confiáveis do que um humano.

“Porém, um algoritmo não pode ter a mesma capacidade de análise que um cérebro humano, a faculdade de avaliar uma situação específica”, insiste Tony Fortin. “Entre as limitações dessas máquinas está sua incapacidade de agir fora do escopo de aplicação previsto”, reconhece-se em “Future Shocks”, um estudo prospectivo da Secretaria Geral de Defesa e Segurança da França (SGDSN), que dedica parte de suas análises aos robôs militares. Em outros termos, uma máquina não pode reagir senão nos limites de sua programação, o que restringe sua capacidade de julgamento e adaptação ao contexto. Inquietante, já que a ideia aqui é de permitir que ela atire nas pessoas.

Especialistas em inteligência artificial estão em alerta

Há três anos, mais de cem especialistas e cientistas do mundo inteiro, entre os quais o físico Stephen Hawking, falecido em março passado, o especialista em informática Stuart Russell (pioneiro em inteligência artificial) e mesmo Elon Musk (dono da fábrica de automóveis Tesla), escreveram uma carta aberta às Nações Unidas para alertar sobre os riscos ligados à proliferação dos “robôs assassinos”, que qualificavam de risco para a humanidade. Segundo eles, de custo menor e mais fáceis de obter que a arma nuclear, as armas autônomas poderiam cair nas mãos erradas e possibilitar assassinatos em massa, treinados para atingir, por exemplo, grupos étnicos específicos.

Esse receio é ilustrado de modo muito realista por um vídeo chocante (ver acima) apresentado ano passado na Convenção das Nações Unidas sobre Armas Convencionais, em meio à campanha contra os robôs assassinos. Esse vídeo mostrava centenas de minidrones armados e equipados com detectores de reconhecimento facial lançados em meio urbano, tendo por missão abater governantes inoportunos ou estudantes rebeldes.

Lançada em 2013, a campanha internacional contra os robôs assassinos reúne hoje mais de 70 ONGs em 20 países, dos quais a Anistia Internacional, a Handicap Internacional e a associação Cidadãos da Ciência (Sciences citoyennes) na França. “Para nós, o princípio de permitir que uma máquina escolha matar um humano é uma linha vermelha. É inaceitável”, explica Mary Wareham, coordenadora da campanha. Além dos argumentos éticos, o problema é também legal. Como fazer que se respeite o direito internacional humanitário quando máquinas tomam a decisão de matar? Como assegurar que a máquina diferencie civis de combatentes? E quem deve ser responsabilizado em caso de violação de direitos?

Onde acaba o controle “significativo” do humano?

A França lançou o debate ao nível das Nações Unidas em 2013. Depois de reuniões informais de grupos de especialistas, há hoje sessões periódicas pra debatar o assunto. Enquanto as ONGs esperam um tratado proibindo as armas autônomas, os debates tropeçam sobre a definição do que é um “sistema de arma letal autônoma”. Para Alice Guitton, embaixadora representante permanente da França depois da Conferência do Desarmamento, é difícil obter uma definição consensual sobre os sistemas letais autônomos, especialmente em razão de sua natureza dual: muitas tecnologias são de fato usadas tanto no campo civil como no militar. “A mistura de gêneros é total: encontramos drones em grandes magazines. É um problema: o equipamento de amanhã é desenvolvido no mundo civil, sem controle, e é mais difícil regulamentá-lo”, ressalta Tony Fortin.

A definição do grau de controle humano necessário é também muito sensível. “Em geral, há duas funções críticas em matéria de combate: identificar os alvos e recorrer à força. Para essas duas funções pensamos que é necessário sempre haver um controle humano. Os Estados fazem muito esforço para dizer que seus armamentos ainda são semi-autônomos, e não autônomos. Nós começamos a nos perguntar se é mesmo sempre esse o caso”, observa Mary Wareham. Segundo a diplomacia francesa, os robôs assassinos ainda não existem. Mas onde acaba o controle “significativo” do humano? Será que o soldado controla o processo integral de decisão quando a máquina lhe submete uma quantidade gigantesca de informações tratadas automaticamente, numa velocidade inatingível pelo cérebro? E o que pensar do robô da Samsung, capaz de matar automaticamente na fronteira coreana?

A tentação da corrida armamentista

Antes que um tratado restritivo, a França e a Alemanha propõem uma declaração política. “Recordamos os princípios do direito internacional humanitário, e nosso compromisso com um controle humano ‘significativo’ sobre a máquina”, explica Alice Guitton. “É um modo de avançar com todo o mundo. Isso não exclui que haja outras etapas, mas não deve tardar. Uma declaração política é uma solução intermediária para aqueles que recusam qualquer regulamentação.” Os Estados Unidos seriam os principais opositores, o Reino Unido não iria querer a interdição, China e Rússia seriam muito prudentes. A França parece mais engajada: Emmanuel Macron até mesmo declarou-se “categoricamente contra” as armas letais autônomas.

O Parlamento Europeu proibiu a destinação, para armas autônomas, de recursos do novo fundo europeu para a pesquisa militar, mas o Conselho Europeu e a Comissão Europeia reverteram a decisão. Segundo a SGDSN francesa, “a robotização associada a capacidades de inteligência artificial irá se impor inevitavelmente nos campos de batalha, devido a seus múltiplos trunfos. A função letal destes robôs será apenas uma opção adicional aos disositivos de tecnologia dupla”. Assim como o armamento dos drones era “apenas uma opção”, para a qual a França também pendeu, após reticências iniciais. No Niger, os drones Reaper podem agora ser equipados com mísseis.

Um tratado para proibir os “robôs assassinos”?

Mary Wareman, da campanha contra os robôs assassinos, continua otimista: “Temos forte apoio, a maioria dos países é a favor de um texto que restrinja [as armas autônomas], 26 países propõem a interdição total, a comunidade científica está mobilizada… Mesmo os militares estão divididos: uma parte avalia que há uma certa ética da guerra, á qual uma máquina não pode responder. Não é impossível proibir um tipo de arma. Nós fomos capazes de fazê-lo contra as minas anti-pessoais, que eram amplamente utilizadas”. Para a campanha contra os robôs assassinos, uma simples declaração polica seria algo ineficaz. É preciso um texto jurídico internacional.

“Com a robatização, os militares afastam-se do campo de batalha, mas os civis continuam a ser mortos”, lembra Tony Fortin. Bem adaptados aos meios urbanos, mais acessíveis que as armas nucleares, certamente eficazes para o controle de multidões e a vigilância, as armas rototizadas inquietam, com razão, os defensores dos direitos humanos. Desde 2015, o relator especial da ONU sobre as execuções extra-judiciais propunha uma moratória: “O complicado é a relação de forças com os governos: as sociedades civis têm muita dificuldade de agir”, deplora Tony Fortin. No terreno militar, os civis continuam a ser mortos, mas estão excluídos dos debates. Os representantes da sociedade civil internacional tentarão fazer ouvir sua voz em agosto, na próxima sessão das Nações Unidas sobre o tema.

Publicado originalmente por Outras Palavras