Se vocês acham preocupante a utilização de drones armados, imaginem então se a decisão de matar um inimigo suspeito não for tomada por um operador em uma longínqua sala de controle, mas pela própria máquina. Imaginem um avião-robô que estuda a paisagem em terra, reconhece uma atividade hostil, calcula que existe um risco mínimo de danos, e, então, sem a participação de um ser humano, aciona o gatilho.
Bem-vindos à guerra do futuro. Enquanto os americanos debatem sobre o poder do presidente de ordenar o assassinato por drones, uma poderosa dinâmica – científica, militar e comercial – nos impele para o dia em que cederemos essa mesma autoridade destrutiva ao software.
No próximo mês, várias organizações de defesa dos direitos humanos e para o controle de armamentos se reunirão em Londres para lançar uma campanha de proibição dos robôs assassinos antes que eles saiam das pranchetas dos engenheiros. Entre os que propõem a proibição estão os que conseguiram conquistar um amplo consenso no mundo civilizado contra o uso indiscriminado das minas terrestres que aleijam as pessoas. Desta vez, eles abordarão um problema mais ardiloso, o do controle de armamentos.
Os argumentos contrários ao aperfeiçoamento de armas totalmente autônomas, como elas são chamadas, são tanto morais (“elas são nefastas”)e técnicos (“jamais serão tão inteligentes”) quanto viscerais (“assustadoras”).
“É uma coisa que as pessoas consideram instintivamente errada”, afirma Stephen Goose, diretor da divisão de armas da organização Human Rights Watch, que assumiu a liderança do desafio à desumanização da guerra. “O repúdio é realmente violento.”
Alguns especialistas em robótica duvidam que, algum dia, um computador consiga distinguir, sem possibilidade de erro, um inimigo de uma pessoa inocente, e muito menos se uma carga de explosivos será a resposta acertada ou proporcional. E se o alvo potencial já estiver ferido, ou tentando se render? Além disso, mesmo que a inteligência artificial atinja ou ultrapasse um grau de competência humana, ressaltam os críticos, jamais será capaz de provocar simpatia.
Noel Sharkey, um cientista da computação da Universidade Sheffield e presidente do Comitê Internacional para o Controle de Armas Robóticas, conta que uma patrulha americana no Iraque se aproximou de um grupo de rebeldes; ao apontarem seus fuzis, os soldados se deram conta de que se tratava de um funeral e os homens carregavam um caixão.
Matar pessoas que acabavam de ser atingidas pela tragédia provocaria o ódio dos locais contra os Estados Unidos, e os soldados baixaram suas armas. Será que um robô seria capaz de fazer esse tipo de julgamento? E há a questão da responsabilidade. Se um robô bombardeia uma escola, quem é o culpado: o soldado que mandou a máquina para o campo? Seu comandante? O fabricante? O inventor? Nas instâncias superiores das forças armadas existem dúvidas quanto ao uso de armas dotadas de autonomia. Em novembro do ano passado, o Departamento da Defesa emitiu uma espécie de moratória de dez anos referente ao desenvolvimento desse tipo de armamento enquanto discute as implicações éticas e as possíveis salvaguardas. Trata-se de uma orientação informal, que provavelmente seria posta de lado em um minuto se soubéssemos que a China vendeu armas autônomas ao Irã, mas de certo modo é bastante tranquilizador que os militares não estejam optando por esse recurso sem antes refletir profundamente sobre a questão.
Comparada às heroicas iniciativas para banir as minas terrestres e conter a proliferação nuclear, a campanha contra os robôs armados munidos de licença para matar enfrentam obstáculos totalmente novos.
Por exemplo, não está absolutamente claro onde se deverá traçar uma linha divisória. Embora o cenário de soldados do tipo ciborgue do Exterminador do Futuro esteja ainda a décadas de distância, se é que tudo isso não passa de uma fantasia, os exércitos do mundo inteiro já estão prevendo a adoção de máquinas com uma capacidade de destruição cujo poderio em combate vem gradativamente aumentando.
As forças armadas já deixam que as máquinas tomem decisões cruciais quando a situação evolui rápido demais para debater a intervenção humana. Os EUA dispõem há muito tempo de navios de guerra da classe Aegis que utilizam defesas antimísseis automatizadas capazes de identificar, perseguir e derrubar em segundos ameaças próximas. E o papel dos robôs está se expandindo até o ponto em que a decisão humana final de matar será em grande parte predeterminada pela inteligência produzida pela máquina.
“O problema, por acaso, é o dedo que aperta o gatilho?”, pergunta Peter W. Singer, especialista em guerra do futuro da Brookings Institution. “Ou será aquela parte que me diz que ‘esse cara é mau’?” Israel é o primeiro país a construir e a utilizar (e vender, para China, Índia, Coreia do Sul e outros) uma arma que pode realizar um ataque preventivo sem depender de um ser humano. O drone que paira no ar chamado Harpia é programado para reconhecer e lançar uma bomba contra qualquer sinal de radar que não conste em seu banco de dados como “amigo”.
Até o momento, não foram relatados erros, mas suponhamos que um adversário instale seu radar antiaéreo no teto de um hospital? Sharkey destaca que a Harpia é uma arma que já cruzou um limiar preocupante e não é possível fazê-la recuar. Há outros sistemas semelhantes, como o X-478 da Marinha dos EUA, um avião de combate não tripulado, semi-independente, que se encontra em fase de teste. Por enquanto, não está armado, mas foi construído com dois compartimentos para bombas. Nós já estamos no futuro.
Para os comandantes militares, o apelo das armas autônomas é quase irresistível, e não se parece com nenhum outro avanço tecnológico anterior. Os robôs são mais baratos que os sistemas pilotados, ou mesmo que os drones – que exigem dezenas de técnicos fornecendo apoio ao piloto remoto. Esses sistemas não colocam em risco a vida das tropas nem as expõem a ferimentos ou a traumas mentais. Os soldados não ficam cansados nem apavorados. Uma arma que não depende de comandos de uma base pode continuar combatendo depois que o inimigo provoca interferência nas comunicações, o que é cada vez mais provável na era dos pulsos eletromagnéticos e dos ataques cibernéticos.
E nenhum estrategista militar quer ceder uma vantagem a um adversário em potencial. Atualmente, mais de 70 países dispõem de drones, e alguns trabalham intensamente nos aspectos tecnológicos para soltar esses aviões de suas amarras virtuais.
“Mesmo que haja uma proibição, como poderá ser posta em prática?”, pergunta Ronald Arkin, cientista da computação e diretor do Laboratório de Robôs da Georgia Tech. “Isso não passa de software.” Os exércitos – e os mercadores de guerra – não são os únicos que investem nessa tecnologia. A robótica é uma fronteira científica hiperativa que vai desde os laboratórios mais sofisticados de inteligência artificial até os programas de ciências no ensino médio.
No mundo todo, as competições organizadas de robótica atraem 250 mil jovens estudantes. (Minha filha de 10 anos é uma competidora.) E a ciência da construção de robôs matadores não está tão facilmente separada da ciência que produz carros que não precisam de motorista ou computadores que se distinguem no programa de TV de perguntas e respostas Jeopardy.
Arkin afirma que a automação também pode tornar a guerra mais humana. Os robôs talvez não sintam compaixão, mas também não têm as emoções que levam a erros terríveis, atrocidades e genocídios: desejo de vingança, pânico, animosidade tribal.
“Meus amigos que serviram no Vietnã disseram que, quando se encontravam em uma zona de fogo livre, atiravam em tudo o que se movia”, ele afirmou. “Acho que podemos projetar sistemas autônomos, inteligentes, letais, capazes de fazer melhor do que isso.” Arkin afirma que as armas autônomas precisam de limites, mas não mediante o corte abrupto da pesquisa. Ele defende uma moratória do uso desses recursos e uma discussão ampla sobre as maneiras de ter seres humanos como responsáveis.
Singer, da Brookings Institution, também se mostra cauteloso a respeito da proibição de armas: “Apoio a finalidade, chamar a atenção para o caminho perigoso que estamos percorrendo. Mas nós temos uma história que não me deixa absolutamente otimista”.
Assim como Singer, não tenho grandes esperanças quanto à viabilidade da proibição de robôs que provocam a morte de pessoas, mas gostaria que me provassem que estou errado. Se a guerra é feita para parecer impessoal e segura, quase tão moralmente significativa quanto um videogame, temo que as armas autônomas acabem empobrecendo nossa humanidade. Tão perturbadora quanto a ideia de os robôs se tornarem mais parecidos com os seres humanos é a perspectiva de que, ao longo do processo, nos tornemos mais parecidos com os robôs.
Fonte: Estadão
O interessante das armas inteligentes e autônomas é que voce pode colocar códigos que identifique o possível alvo, como por exemplo, negros, indios, latinos, arabes e etc.. Porém nada se compara, quando se percebe que os robos não podem atingir, jamais, grupos de elite, códigos secretos seriam colocados em suas memórias, para que determinada classe de pessoas, as elites mundiais por exemplo, nunca fossem atingidas por tal arma. Isso é mais fácil do que a própria criação dos robos de guerra, famílias com sobrenomes interessantes, como: Rosthschild,Rockfeller,Safra entre outros tantos, jamis estariam na lista de bilhões de pessoas que poderiam ser alvejadas, mesmo que fosse dada a ordem de ataca-las. O robo simplesmente diria que "NÃO TEM REGISTRO".
ResponderExcluirÉ muito interessante este artigo, e outra coisa interessante que podemos refletir é sobre a implantação de chips de identificação em pessoas, isso pode vir a ser usado para identificar e assinalar alvos futuramente com o uso dessa tecnologia autonoma
ResponderExcluir