Geral

Robots a tomar decisões no campo de batalha. A Autonomia Militar: Um Drama Jurídico-Internacional?

A actuação dos Estados na cena internacional não é sempre transparente e argumentos jurídicos são utilizados de acordo com opções políticas. Temos, por isso, que reflectir e discutir o futuro.

A tecnologia de guerra sempre procurou a ‘dissociação do risco’, isto é, aumentar a distância física entre o atacante e o atacado. Os drones, neste aspecto, são o exemplo perfeito: os pilotos encontram-se a milhares de quilómetros de distância do teatro de operações. Os sistemas autónomos anunciam, no entanto, o fim da necessidade de pilotos, de intervenção humana e uma actuação cada vez mais precisa. A Inteligência Artificial chegou!

Os Sistemas Autónomos de Guerra (SAG’s) prometem ir muito longe. De acordo com a Directiva 3000.09 do Departamento de Defesa Norte Americano (2012), os SAG’s são caracterizados pela sua capacidade de seleccionar e eliminar alvos militares sem a necessidade de qualquer intervenção humana. Resulta claro que não existe paralelo possível entre drones e SAG’s. Nestes últimos, os operadores humanos estarão out-of-the-loop e são por muitos designados de “killer robots” ou, tecnicamente, de LAR’s (Lethal Autonomous Robots), para destacar o uso da força armada por SAG’s sem a necessidade de um operador humano. Trata-se, portanto, de uma autonomia técnica para o desempenho de determinadas missões militares.

O tema causou a reacção de inúmeras organizações não-governamentais (ONG’s), como a Human Rights Watch, entre outras, que solicitaram uma proibição internacional deste tipo de armas. Em 2013, o Relator Especial Cristoff Heynes solicitou uma moratória da parte dos Estados e, desde 2014, têm sido promovidas todos os anos reuniões inter-estaduais, no âmbito Convenção para as Armas Convencionais, com o objectivo de se determinar o futuro para os SAG’s. A questão dos SAG’s tem vindo a ser alvo, a meu ver, de uma enorme confusão, resultante de falta de cuidado nos conceitos utilizados e de um dramatismo exagerado perante um futuro que, embora incerto, será certamente regulado pelo Direito Internacional Humanitário (DIH).

Em primeiro lugar, longe vão os tempos do poder ilimitado dos Estados quanto aos meios e métodos de combate utilizados. As Convenções de Genebra de 1949 e os Protocolos Adicionais de 1977 estabelecem limites claros nesse aspecto, exigindo aos Estados que a aquisição e o desenvolvimento de novas tecnologias de guerra respeitem as normas de Direito Internacional. Neste sentido, os sistemas autónomos terão que ser tecnicamente capazes de aplicar o Princípio da Distinção e o Princípio da Proporcionalidade. Estes princípios – qualificados como imperativos pelo Tribunal Internacional de Justiça em 1996 – estão longe, é certo, de uma aplicação óbvia: grupos terroristas confundem-se com a população civil e uma escola, tradicionalmente um objecto civil, pode, no contexto das hostilidades, tornar-se um alvo militar pelo uso que lhe seja dado por um exército. Perante estas dificuldades, a pergunta inevitável é a de saber como é que estes sistemas vão determinar o equilíbrio entre a ‘necessidade militar’ e o dano colateral (civil). No entanto, estas questões são mais técnicas do que jurídicas. Cabe aos roboticistas provarem que tais sistemas são possíveis. Os parâmetros jurídicos estão há muito estabelecidos e se um SAG’s dispensa a necessidade de controlo e supervisão humana, o sistema vai ter que ‘dar provas’ da sua capacidade em respeitar princípios intransponíveis de DIH. Esperamos, como tal, ansiosos pelas respostas dos roboticistas.

A questão jurídica mais complexa é colocada, no entanto, no plano da responsabilidade. Uma vez que estes sistemas não serão directamente controlados por agentes humanos, quem será responsável por violações de DIH causadas por SAG’s? Um aspecto é certo, as violações verificadas não poderão ser ‘crimes de guerra’. Os SAG’s dependerão de algoritmos altamente sofisticados mas não serão autónomos no sentido filosófico e jurídico, isto é, de poderem explicar as razões dos seus resultados. Os algoritmos, seja qual for a sua natureza, irão actuar de acordo com as regras lógicas da sua programação. Não terão vontade própria e este aspecto é fundamental para evitar que a nossa imaginação nos leve para cenários apocalípticos tipo “Terminator” ou “HAL9000”. Os sistemas autónomos não vão cair do céu mas antes de laboratórios onde serão programados para missões específicas no campo de batalha. Ao lado destes argumentos, encontramos também aqueles que decorrem do bom senso: nenhum Estado terá interesse em desenvolver tecnologia de guerra cujo uso e respectivos resultados não possa controlar a priori.

O DIH dispõe de mecanismos para responsabilizar os Estados por acidentes causados pelos seus SAG’s. Basta para isso pensar na Responsabilidade Internacional do Estado por violações do DIH. A questão é, no entanto, outra: estarão os Estados disponíveis para se deixarem responsabilizar? A actuação dos Estados na cena internacional não é sempre transparente e argumentos jurídicos são utilizados de acordo com opções políticas. Temos, por isso, que reflectir e discutir o futuro.

Ler mais: https://www.publico.pt/2016/12/21/mundo/noticia/robots-a-tomar-decisoes-no-campo-de-batalha-a-autonomia-militar-um-drama-juridicointernacional-1755500

Fale connosco