Guerreiros de metal. O mundo controlado por androides
Robôs-soldados estão passando do terreno da ficção científica para a realidade, como demonstram aparelhos construídos por países como Estados Unidos, Israel e Coreia do Sul. Como esses equipamentos vão determinar seus alvos e atacá-los?
✅ Receba as notícias do Brasil 247 e da TV 247 no canal do Brasil 247 e na comunidade 247 no WhatsApp.
Por Eduardo Araia
Não há funcionários melhores do que as máquinas. Os radares eletrônicos espalhados por cidades e estradas do Brasil, por exemplo, trabalham 24 horas por dia, concentram-se 100% do tempo na tarefa, não têm férias nem 13º salário e nunca fazem greve. Há tempo as indústrias de armamento e defesa estão seduzidas por qualidades como essas. A evolução tecnológica já permite antever a fabricação de aparelhos com autonomia para combater e decidir, sozinhos, se e quando devem dar cabo da vida de alguém. A criação desses equipamentos, considerada viável em até 20 anos, significaria o prenúncio de um mundo controlado por androides, como esboçado nos filmes O Exterminador do Futuro e Eu, Robô.
De acordo com Steve Goose, diretor da divisão de armas da Human Rights Watch, ONG que atua globalmente na defesa dos direitos humanos, militares de vários países estariam “muito empolgados” com a possibilidade de contar com robôs-soldados, de olho na redução das baixas entre militares de carne e osso. Estados Unidos, China e Rússia são alguns dos interessados nesse novo guerreiros cibernéticos.
Precursores de robôs-soldados, chamados em inglês de killer robots (robôs assassinos), já podem ser vistos por aí. O sistema de defesa Phalanx, da americana Raytheon, instalado em navios da Marinha dos EUA, é capaz de identificar a origem do fogo inimigo e destruir projéteis disparados contra ele.
O drone X47B, da também americana Northrop Grumman, é uma aeronave não tripulada que decola e pousa de aviões cargueiros, entra em combate aéreo sem piloto e até reabastece no ar. Ainda não leva armas, mas, providencialmente, possui dois compartimentos para bombas.
O drone Harpy, fabricado por Israel, pode reconhecer e lançar uma bomba contra qualquer sinal de radar não registrado como “amigo” por seu banco de dados. A Samsung fabricou o robô de vigilância SGR-A1, que detecta movimentação incomum, ameaça intrusos e até abre fogo, quando autorizado por um controlador humano. Ele poderá substituir soldados no lado sul-coreano da Zona Desmilitarizada entre as duas Coreias.
Drones à parte, todos esses aparelhos funcionam montados sobre bases fixas. Mas robôs de combate dotados de movimento já estão a caminho. Os produtos anunciados pela empresa americana Boston Dynamics – ligada a instituições militares dos EUA – em seu portal (bostondynamics.com) ou no YouTube (YouTube.com/BostonDynamics) mostram robôs com mobilidade e agilidade surpreendentes. A empresa não os apresenta como armas, mas é fácil imaginá-los atuando com essa finalidade.
Chamam a atenção o Atlas e o Petman, robôs antropomórficos capazes de mover-se coordenadamente sobre diferentes terrenos. Há também o Cheetah, de quatro “patas”, que corre até a velocidade de 45 km/h, e o BigDog, robô de carga também apto a enfrentar terrenos variados.
Responsabilidade difusa
As centenas de ataques realizados por drones americanos no Oriente Médio nos últimos anos – que levaram à morte centenas de civis no Paquistão e no Iêmen –, estimulam uma reflexão mais atenta sobre um cenário de guerra envolvendo os robôs-soldados.
No caso dos atuais drones, sempre há pelo menos um humano que aciona os comandos necessários para os aparelhos atirarem. Mesmo aceitando-se esse detalhe, a responsabilização dos culpados pelas mortes de civis ainda parece remota. Nesse ritmo, os casos de assassinatos cometidos por robôs-soldados tenderiam a ficar numa espécie de limbo jurídico.
Embora o Departamento de Defesa dos EUA tenha formalizado em novembro de 2012 a diretriz de que comandantes e operadores desses aparelhos deverão manter “níveis apropriados de julgamento humano a respeito do uso da força”, o tema ainda patina na obscuridade.
O inglês Noel Sharkey, especialista em robótica e inteligência artificial da Universidade de Sheffield, no Reino Unido, e presidente do Comitê Internacional para o Controle de Armas Robóticas, é um dos que percebem os riscos implícitos nessa situação, tanto em termos jurídicos como éticos e morais. “Se um robô comete um erro, quem é o responsável?”, pergunta. “Certamente não será o robô. Ele poderia levar um balaço em seu computador e ficar incontrolável. Assim, não há forma de determinar realmente quem é o responsável, e isso é muito importante para as leis de guerra.”
O sul-africano Christof Heyns, relator especial da ONU para execuções extrajudiciais, também é crítico em relação ao tema. “Soldados em batalha podem, legalmente, mirar apenas em combatentes, e não civis. Um computador conseguirá fazer o julgamento de valor de que pessoas em trajes civis levando rifles não são combatentes inimigos, mas caçadores, ou soldados se rendendo?”
A questão levou a HRW a divulgar, em 2012, o relatório Losing Humanity (Perdendo a Humanidade), coescrito com a Clínica de Direitos Humanos Internacionais da Escola de Direito da Universidade Harvard, no qual a entrada de robôs-soldados no teatro de guerra é analisada. Um dos pontos mais polêmicos, segundo os autores, seria a questão de como atribuir a essas máquinas “condições” de diferenciar civis e combatentes numa zona de conflito. Cético quanto à definição dessas condições, o relatório propõe a elaboração de “um tratado internacional que proibiria em absoluto o desenvolvimento, a produção e o uso de armamentos totalmente autônomos”.
A ideia prosperou e estimulou o surgimento, em abril de 2013, da campanha “Stop the Killer Robots”, cujo lançamento, realizado na Câmara dos Comuns, em Londres, teve a participação de acadêmicos como Noel Sharkey e representantes de grupos que barraram o uso de minas e bombas de fragmentação em conflitos, como a americana Jody Williams, Nobel da Paz em 1997 pela militância a favor da eliminação de minas. A campanha recomenda o “banimento de sistemas de armas capazes de mirar num alvo e tomar decisões que envolvem vida e morte sem que um humano esteja informado disso”.
Dois meses depois, Christof Heyns apresentou no Conselho de Direitos Humanos da ONU um relatório sobre armas autônomas letais que vai basicamente no mesmo sentido. Ele recomenda que os robôs assassinos sejam banidos até que uma discussão política defina como regulamentá-los em níveis nacional e internacional.
Regulação necessária
Em outubro de 2013, o tema foi debatido no Primeiro Comitê de Desarmamento e Segurança Internacional da Assembleia Geral da ONU. Egípcios, franceses e suíços ressaltaram que as regulamentações são necessárias antes que os robôs assassinos estejam “desenvolvidos ou posicionados”. Alemanha, Argélia, Áustria, Brasil, EUA e Marrocos deram apoio a essas propostas. Mas especialistas também reivindicaram maior transparência dos governos que já usam sistemas semiautônomos, como o Phalanx dos EUA.
“Não estamos tentando deter o avanço da robótica, mas não quero ver robôs operando por sua própria conta, equipados com armas letais”, afirmou na ocasião Jody Williams, painelista no evento. “Temos todo o direito e a responsabilidade de discutir publicamente sobre para onde a guerra está indo.”
Ainda em outubro, a pressão anti-robôs-soldados subiu um pouco mais de tom com a divulgação de um manifesto, assinado por 270 estudiosos e profissionais das áreas de computação e de inteligência artificial de vários países, que pede a interrupção no desenvolvimento ou uso de armas que disparem sem intervenção humana. Mas o tema não é unanimidade.
Dois professores americanos, Matthew Waxman, da Escola de Direito da Universidade de Columbia, e Kenneth Anderson, da Universidade Americana, alegam que desistir dos robôs assassinos seria “desnecessário e perigoso”, pois os sistemas autônomos são parte do nosso futuro e, se os governos não os usarem, acabarão nas mãos de grupos terroristas e de regimes rivais.
Além disso, sistemas de armamentos sofisticados poderiam ser úteis no futuro, localizando alvos melhor do que os humanos. Outros pesquisadores afirmam que, livres de emoções como vingança ou sede de poder, os robôs-soldados seriam mais adequados para lutar contra exércitos de androides montados por ditadores ou grupos terroristas.
O tema voltou a ser debatido em nível internacional em Genebra (Suíça), em novembro, e nele países como França, Espanha, Áustria, Irlanda, Holanda, Croácia, México e Serra Leoa sublinharam os perigos em potencial dessa tecnologia. Várias nações frisaram a necessidade de se colocar essas armas em conformidade com as convenções de Genebra relativas à guerra. A Irlanda, e Holanda e outros países também ressaltaram que as leis internacionais sobre o assunto devem incorporar o conceito de “controle humano significativo” referente a tais armamentos, embora ainda não se tenha chegado a um consenso sobre o tema.
O tema exige, de fato, reflexão, e a preocupação humanista é impor limites precisos à eficiência insensível da inteligência artificial. “A perspectiva de entrar num mundo onde máquinas recebam explicitamente um mandato para matar humanos deveria fazer todos nós pensar”, diz Christof Heyns. “Enquanto a tecnologia avança, precisamos ter algum tempo para garantir que não apenas vidas, mas também um conceito do valor da vida humana, sejam preservados no longo prazo.”
Vídeo: Robot Evolution, um vídeo do presente que aponta para o futuro. Tudo que este vídeo mostra já existe e é funcional. A partir disso, a tecnologia e a criatividade humana aplicadas ao mundos dos robôs e dos drones não conhecerá mais limites.
iBest: 247 é o melhor canal de política do Brasil no voto popularAssine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista:
Comentários
Os comentários aqui postados expressam a opinião dos seus autores, responsáveis por seu teor, e não do 247