Robôs-soldados estão passando do terreno da fi cção para a realidade, como demonstram aparelhos já construídos nos Estados Unidos, Israel e Coreia do Sul.
Por Eduardo Araia
Robôs-soldados estão passando do terreno da ficção para a realidade, como demonstram aparelhos já construídos nos Estados Unidos, Israel e Coreia do Sul. Mas como eles vão determinar os alvos e atacá-los? Têm discernimento para tanto?
Máquinas são funcionários exemplares, como atestam os radares eletrônicos espalhados por cidades e estradas do Brasil. Trabalham 24 horas por dia, concentram-se 100% do tempo na tarefa, não têm férias, não ganham 13º salário e nunca reivindicam. A indústria de armamento e defesa está encantada com esses operários-padrão guerreiros.
A evolução tecnológica já permite antever a fabricação de aparelhos com autonomia para combater e decidir, sozinhos, se e quando devem dar cabo da vida de alguém. A evolução, considerada viável em até 20 anos, signifi caria o prenúncio de um mundo controlado por androides, tal como esboçado em fi lmes como O Exterminador do Futuro e Eu, Robô.
De acordo com Steve Goose, diretor da divisão de armas da Human Rights Watch, ONG que atua globalmente na defesa dos direitos humanos, militares de vários países estariam “muito empolgados” com a possibilidade de contar com robôs-soldados, de olho na redução das baixas entre militares de carne e osso. Estados Unidos, China e Rússia são alguns dos interessados nos novos guerreiros cibernéticos. Precursores de robôs-soldados, chamados em inglês de killer robots (robôs assassinos), já podem ser vistos em ação. O sistema de defesa Phalanx, da americana Raytheon, instalado em navios da Marinha dos EUA, é capaz de identificar a origem do fogo inimigo e destruir projéteis disparados contra a sua nau.
O drone X47B, da também americana Northrop Grumman, é uma aeronave não tripulada que decola e pousa de aviões cargueiros, entra em combate aéreo sem piloto e reabastece no ar. Ainda não realiza bombardeios, mas, providencialmente, possui dois compartimentos para bombas. O drone- bomba Harpy, fabricado por Israel, possui um banco de dados que reconhece qualquer sinal de radar não registrado como “amigo” e lança-se contra ele, destruindo o aparelho.
A Samsung fabricou o robô de vigilância SGR-A1, que detecta movimentos incomuns, ameaça intrusos e abre fogo, quando autorizado por um controlador humano. Ele está sendo avaliado para substituir soldados no lado sul-coreano da zona desmilitarizada entre as Coreias.
Drones à parte, todos esses aparelhos funcionam montados sobre bases fi xas. Mas robôs de combate dotados de movimento já estão a caminho. Os produtos anunciados pela empresa americana Boston Dynamics, em seu portal (bostondynamics.com) ou mesmo no YouTube (YouTube.com/Boston- Dynamics), mostram robôs com mobilidade e agilidade surpreendentes.
A empresa não os apresenta como armas, mas não é difícil imaginá-los atuando com essa finalidade. Chamam a atenção o Atlas e o Petman, robôs antropomórfi cos capazes de mover-se coordenadamente sobre diversos terrenos. Há também o veloz Cheetah e seu sucessor WildCat, de quatro “patas”, que corre a mais de 46
km/h, e o LS3, um robô de carga que também enfrenta terrenos variados.
Responsabilidade difusa
As centenas de ataques realizados por drones americanos no Oriente Médio, nos últimos anos – que mataram pelo menos 450 civis no Paquistão e no Iêmen –, estimulam uma reflexão mais profunda sobre um cenário de guerra envolvendo os robôs-soldados. No caso dos atuais drones, sempre há pelo menos um controlador humano que aciona os comandos necessários para os aparelhos atirarem. Mesmo aceitando-se esse detalhe, a responsabilização dos culpados pelas mortes de civis parece remota.
Nesse ritmo, os casos de assassinatos cometidos por robôs-soldados tenderiam a ficar numa espécie de limbo jurídico. Embora o Departamento de Defesa dos EUA tenha formalizado, em novembro de 2012, a diretriz de que comandantes e operadores desses aparelhos deverão manter “níveis apropriados de julgamento humano a respeito do uso da força”, o tema patina na obscuridade.
O inglês Noel Sharkey, especialista em robótica da Universidade de Sheffi eld, no Reino Unido, e presidente do Comitê Internacional para o Controle de Armas Robóticas, é um dos que percebem os riscos implícitos nessa situação, tanto em termos jurídicos como éticos e morais. “Se um robô comete um erro, quem é o responsável?”, pergunta. “Certamente não será o robô. Ele poderia levar um balaço no computador e fi car incontrolável. Assim, não há forma de determinar realmente quem é o responsável. Isso é muito importante para o cumprimento das leis de guerra.”
O sul-africano Christof Heyns, relator especial da ONU para execuções extrajudiciais, também é crítico em relação ao tema. “Soldados em batalha podem, legalmente, mirar apenas em combatentes, e não em civis. Um computador conseguirá discernir e fazer o julgamento de valor de que pessoas em trajes civis levando rifl es não são combatentes inimigos, mas caçadores ou soldados se rendendo?” A questão levou a HRW a divulgar, em 2012, o relatório Losing Humanity (Perdendo a Humanidade), coescrito com a Clínica de Direitos Humanos Internacionais da Escola de Direito da Universidade Harvard, no qual a entrada de robôs-soldados em guerras é analisada.
Um dos pontos polêmicos, segundo os autores, seria a questão de como atribuir às máquinas “condições” de diferenciar civis e combatentes numa zona de conflito. Cético quanto à defi nição dessas condições, o relatório propõe “um tratado internacional que proibiria em absoluto o desenvolvimento, a produção e o uso de armamentos totalmente autônomos”. A ideia estimulou o surgimento, em abril de 2013, da campanha “Stop the Killer Robots”, cujo lançamento, realizado na Câmara dos Comuns, em Londres, contou com a participação de Noel Shar key e de grupos que já barraram o uso de minas e bombas de fragmentação em conflitos, nos quais milita a norte-americana Jody Williams, Nobel da Paz em 1997.
A campanha recomenda o “banimento de sistemas de armas capazes de mirar num alvo e tomar decisões que envolvem vida e morte sem que um humano esteja informado disso”. Em junho de 2013, Christof Heyns apresentou ao Conselho de Direitos Humanos da ONU um relatório sobre armas autônomas letais que converge para o mesmo objetivo. Ele quer que os killer robots sejam banidos até que se defi na como regulamentá-los em níveis nacional e internacional.
Regulação necessária
Em outubro, o tema foi debatido no Primeiro Comitê de Desarmamento e Segurança Internacional da Assembleia- Geral da ONU. Egípcios, franceses e suíços ressaltaram que a regulamentação é necessária antes que os robôs guerreiros estejam “desenvolvidos ou posicionados”. Alemanha, Argélia, Áustria, Brasil, EUA e Marrocos deram apoio a essas propostas.
Mas especialistas também reivindicaram maior transparência dos governos que já usam sistemas semiautônomos, como o Phalanx dos EUA. “Não estamos tentando deter o avanço da robótica, mas não quero ver robôs equipados com armas letais, operando por conta própria”, afirmou Jody Williams, conferencista do evento. “Temos todo o direito e a responsabilidade de discutir publicamente para onde a guerra está indo.” Ainda em outubro, a pressão contra robôs-soldados subiu de tom com a divulgação de um manifesto, assinado por 270 estudiosos e profi ssionais das áreas de computação e de inteligência artificial de vários países, que pede a interrupção no desenvolvimento ou uso de armas que disparem sem intervenção humana.
No entanto, não há unanimidade sobre o tema. Dois professores americanos, Matthew Waxman, da Escola de Direito da Universidade de Columbia, e Kenneth Anderson, da Universidade Americana, alegam que desistir dos robôs soldados seria “desnecessário e perigoso”, pois sistemas autônomos são parte do futuro e, se os governos não os usarem, acabarão nas mãos de grupos terroristas e de regimes rivais. Sistemas de armamentos sofi sticados poderiam ser úteis localizando alvos com maior capacidade do que os humanos. Outros pesquisadores dizem que, livres de emoções como vingança ou sede de poder, os robôs-soldados seriam mais adequados para lutar contra exércitos de androides montados por ditadores ou grupos terroristas.
Como se vê, há controvérsia. A preocupação humanista é impor limites precisos à eficiência insensível da inteligência artifi cial. “A perspectiva de entrar numa realidade em que as máquinas recebam explicitamente um mandato para matar humanos deveria fazer todos pensar”, diz Christof Heyns. “Enquanto a tecnologia avança, precisamos ter algum tempo para garantir que não apenas vidas – mas também a noção de valor da vida humana –, sejam preservadas em longo prazo.”
Fonte: Planeta.