Há pouco tempo, escrevi um post sobre os dilemas éticos da inteligência artificial. Será que algum dia as máquinas poderão tomar decisões que envolvem escolhas morais?
Hoje, uma reportagem trata desse assunto de um ponto de vista prático: armas letais autônomas. Seriam essas armas capazes de substituir soldados humanos durante uma batalha?
Em primeiro lugar e antes de tudo, o nome “robôs assassinos” já implica, em si, em um julgamento moral. A ser assim, deveríamos chamar os soldados igualmente de “assassinos”, o que pode ser até adequado para aqueles que execram a guerra a qualquer custo, mas não ajuda a resolver o dilema ético das armas autônomas. O problema, nesse caso, estaria na guerra em si, e não a quem se delega a tarefa de matar. Como vou supor, apenas para seguir adiante, que há guerras necessárias, chamarei esses dispositivos de “armas autônomas”, um termo moralmente neutro.
No início do filme Robocop, um executivo de uma empresa de robôs apresenta um protótipo de robô policial em uma reunião do conselho. O robô apresenta uma pane e assassina um dos membros do conselho. Obviamente o projeto é engavetado, e dá lugar a um outro, em que um ser humano recebe partes de um robô. Temos assim a força e a indestrutibilidade de um robô, aliados ao julgamento de um ser humano. A união perfeita, que descarta o uso da inteligência artificial na tomada de decisões morais.
Este parece ser o receio dos que se opõem ao uso dessa tecnologia. “Como a IA distinguirá alguém se rendendo, ou um adulto de uma criança, ou alguém segurando uma vassoura de alguém segurando uma bazuca?”, perguntam-se, angustiados.
Mas essa é a parte mais fácil da tarefa. Com o avanço da tecnologia, essas distinções ficarão cada vez mais precisas. O problema moral é qual decisão a se tomar ao se identificar corretamente a situação.
Em uma determinada cena do filme Sniper Americano, o protagonista identifica uma criança recebendo uma carga explosiva, que seria levada para os insurgentes no Iraque. A criança foi corretamente identificada. E agora, o que fazer com essa informação? O sniper mata a criança? Ou a deixa viva, o que significará a morte de muitos soldados? A IA pode ser programada com uma árvore de decisão desse tipo e cumprirá o papel para a qual foi programada. O sniper humano cumprirá sua missão da mesma forma, e depois voltará com distúrbios mentais para casa.
Armas autônomas tomarão decisões conforme uma hierarquia de valores previamente programada. Pode-se argumentar que essas máquinas serão mais mortíferas porque podem ser programada para serem “suicidas”, ou seja, darem valor zero para a sua própria preservação, o que lhes deixaria em vantagem sobre humanos com instinto de sobrevivência. Isso é verdade. Mas não consigo deixar de pensar nos kamikazes na 2a guerra, ou nos terroristas suicidas do ataque às torres gêmeas. Não precisamos de robôs para missões suicidas, seres humanos podem ser “programados” da mesma forma.
Enfim, pode-se argumentar que a tecnologia não está suficientemente avançada para confiar missões de ataque a armas autônomas. Mas esse não é, em si, um dilema ético, é só um problema tecnológico. Quando a tecnologia tiver avançado o suficiente será adequado delegar a tarefa de matar em uma guerra? Essa é a questão a ser respondida.