Robôs
assassinos’ não são mais ficção científica
ONU convoca uma reunião sobre o uso bélico de
máquinas que tomam a decisão de matar
Campanha
contra o uso de robôs na guerra, em Londres em 2013. / CARL COURT (AFP)
Os robôs assassinos,
máquinas que podem tomar a decisão de matar de forma independente de qualquer
controle humano, saíram da ficção científica para entrar de cabeça na agenda internacional sobre desarmamento: a partir de
segunda-feira, a ONU reunirá em Genebra dezenas de especialistas durante cinco
dias para estudar todas as implicações dos chamados Sistemas de Armas Autônomas
Letais (LAWS, na sigla em inglês). O objetivo dos pesquisadores é convencer a
comunidade internacional para que impulsione uma proibição global desse tipo de
arma, que coloca profundos dilemas éticos, sobretudo no terreno das leis da
guerra: quem é o responsável se uma máquina autônoma comete um crime? Ainda não
existem; mas a tecnologia capaz de desenvolvê-las, sim.
“Estou muito otimista sobre a
possibilidade de que se alcance um tratado para decretar sua proibição”,
explica Noel Sharkey, professor emérito de Inteligência Artificial e Robótica
na Universidade de Sheffield e o acadêmico que criou a maior campanha internacional contra os robôs militares, Stop Killer Robots.
“Existem muitas nações implicadas, ainda que esse tipo de decisão requer muito
tempo”, acrescenta. Sharkey, que há quase uma década dedica-se exclusivamente a
esse problema, afirma que a reunião de Genebra ocorre “pois tem acontecido
tantos debates sobre os robôs assassinos, que as delegações nacionais na
Convenção sobre Armas Convencionais decidiram convocar especialistas para compreender
profundamente o problema antes de tomar uma decisão”.
mais informações
- EUA flexibilizam o uso comercial e a exportação militar de drones
- ‘Selfies’ com drones, a última extravagância da vaidade humana
- Cães-robô têm alma?
- Algum dia engoliremos um robô
O objetivo da convenção é o
controle das chamadas “armas inumanas” e conseguiu acordos internacionais para
proibir, por exemplo, determinados tipos de minas antipessoais e os lasers que
cegam. Esse armamento foi proibido antes de começar a operar e é isso que os
cientistas pretendem: que os robôs assassinos não cheguem nunca a ser criados.
Muitos países desenvolveram sistemas de armas autônomas, como o x47-B dos EUA,
um avião que pode aterrissar e decolar sozinho. De fato, a eficácia do escudo israelense Cúpula de Ferro é
baseado na robótica. Foram inventadas armas que se movem por conta própria – o
Samsung SGR-1 sul-coreano que patrulha a fronteira com a Coreia do Norte, por
exemplo –, mas a decisão de abrir fogo continua sendo humana. Por enquanto.
Motivadas pelo encontro de
Genebra, a Human Rights Watch e a Harvard Law School´s International Human Rights Clinic
publicaram na quinta-feira um relatório que demonstra o que aconteceria se as máquinas
com capacidade para decidir sobre a vida e a morte entrassem no campo de
batalha. Sua conclusão é clara: “Recomendamos proibir o desenvolvimento, a
produção e o uso de armas totalmente autônomas através de um sistema legal
internacional”.
Uma das ideias combatidas pela
campanha internacional é que, no começo, não parece ruim o fato de máquinas, e
não seres humanos, fazerem a guerra. O panorama descrito por esse documento se
parece muito com o filme Exterminador do Futuro: “De uma perspectiva
moral, muitas pessoas acham terrível a ideia de delegar às máquinas o poder de
tomar decisões sobre a vida ou morte nos conflitos armados. Além disso, mesmo
que as armas completamente autônomas não se deixem levar pelo medo ou pela ira,
não teriam compaixão, uma salvaguarda fundamental para evitar a matança de
civis. Como essas armas revolucionariam a guerra, também podem iniciar uma
corrida armamentista. Uma vez que estivessem totalmente desenvolvidas, ocorrerá
uma proliferação a Estados irresponsáveis ou grupos armados não estatais.
Alguns críticos também argumentam que o uso de robôs poderia tornar mais fácil
o uso da força pelos líderes políticos, pois reduziria o risco para seus
próprios soldados”. Tudo isso deve ser somado com a responsabilidade diante das
leis da guerra. Os especialistas traçam um paralelo com os carros autônomos,
uma tecnologia plenamente desenvolvida, mas que não circulam pois ainda não foi
resolvido o problema da responsabilidade se acontecer um acidente com um carro
conduzido por uma máquina.
O Comitê Internacional para o
Controle dos Robôs Armados (ICRAC, na sigla em inglês), formado por cientistas,
advogados, especialistas em direitos humanos, desenvolveu uma lista de
argumentos para a reunião de Genebra com os problemas para segurança global que
as armas globais apresentam. “Estamos em um momento crítico na evolução do
armamento. Ainda estamos em tempo de deter a automatização da decisão de matar,
para assegurar-nos que todas as armas continuem sendo controladas por seres
humanos”, coloca o texto.
0 Comentários