Robôs que matam são eticamente justificáveis?
Há pouco tempo, escrevi um post sobre os dilemas éticos da inteligência artificial. Será que algum dia as máquinas poderão tomar decisões que envolvem escolhas morais?
Hoje, uma reportagem trata desse assunto de um ponto de vista prático: armas letais autônomas. Seriam essas armas capazes de substituir soldados humanos durante uma batalha?
Em primeiro lugar e antes de tudo, o nome “robôs assassinos” já implica, em si, em um julgamento moral. A ser assim, deveríamos chamar os soldados igualmente de “assassinos”, o que pode ser até adequado para aqueles que execram a guerra a qualquer custo, mas não ajuda a resolver o dilema ético das armas autônomas. O problema, nesse caso, estaria na guerra em si, e não a quem se delega a tarefa de matar. Como vou supor, apenas para seguir adiante, que há guerras necessárias, chamarei esses dispositivos de “armas autônomas”, um termo moralmente neutro.
No início do filme Robocop, um executivo de uma empresa de robôs apresenta um protótipo de robô policial em uma reunião do conselho. O robô apresenta uma pane e assassina um dos membros do conselho. Obviamente o projeto é engavetado, e dá lugar a um outro, em que um ser humano recebe partes de um robô. Temos assim a força e a indestrutibilidade de um robô, aliados ao julgamento de um ser humano. A união perfeita, que descarta o uso da inteligência artificial na tomada de decisões morais.
Este parece ser o receio dos que se opõem ao uso dessa tecnologia. “Como a IA distinguirá alguém se rendendo, ou um adulto de uma criança, ou alguém segurando uma vassoura de alguém segurando uma bazuca?”, perguntam-se, angustiados.
Mas essa é a parte mais fácil da tarefa. Com o avanço da tecnologia, essas distinções ficarão cada vez mais precisas. O problema moral é qual decisão a se tomar ao se identificar corretamente a situação.
Em uma determinada cena do filme Sniper Americano, o protagonista identifica uma criança recebendo uma carga explosiva, que seria levada para os insurgentes no Iraque. A criança foi corretamente identificada. E agora, o que fazer com essa informação? O sniper mata a criança? Ou a deixa viva, o que significará a morte de muitos soldados? A IA pode ser programada com uma árvore de decisão desse tipo e cumprirá o papel para a qual foi programada. O sniper humano cumprirá sua missão da mesma forma, e depois voltará com distúrbios mentais para casa.
Armas autônomas tomarão decisões conforme uma hierarquia de valores previamente programada. Pode-se argumentar que essas máquinas serão mais mortíferas porque podem ser programada para serem “suicidas”, ou seja, darem valor zero para a sua própria preservação, o que lhes deixaria em vantagem sobre humanos com instinto de sobrevivência. Isso é verdade. Mas não consigo deixar de pensar nos kamikazes na 2a guerra, ou nos terroristas suicidas do ataque às torres gêmeas. Não precisamos de robôs para missões suicidas, seres humanos podem ser “programados” da mesma forma.
Enfim, pode-se argumentar que a tecnologia não está suficientemente avançada para confiar missões de ataque a armas autônomas. Mas esse não é, em si, um dilema ético, é só um problema tecnológico. Quando a tecnologia tiver avançado o suficiente será adequado delegar a tarefa de matar em uma guerra? Essa é a questão a ser respondida.
A moralidade da inteligência artificial
Reportagem do NYT, reproduzida pelo Estadão, descreve os últimos avanços da inteligência artificial no campo das decisões morais. Um software batizado Delphi (em homenagem ao oráculo de Delfos) está sendo “treinado” com milhões de decisões de seres humanos reais, que envolvem algum julgamento moral. A questão que se coloca, claro, é se um algoritmo, por mais poderoso que seja, será um dia capaz de tomar decisões morais.
Em primeiro lugar, o que é moral? Não sou filósofo, então vou responder “leigamente”: moral é tudo aquilo que regula o comportamento dos seres humanos em relação aos seus pares e a si mesmo. Os seres humanos são seres morais, então todos as suas decisões carregam uma carga moral. Mesmo a decisão de escovar ou não os dentes de manhã tem implicações morais: se eu não escovar estarei dando bom exemplo ao meu filho? Estarei atentando contra a minha própria saúde? Esta pasta foi fabricada com elementos tóxicos que estão prejudicando populações indefesas? Enfim, as mais simples decisões carregam implicações morais, pelo simples fato de serem decisões humanas. Temos uma bússola interna que aponta o “certo” e o “errado” em tudo o que fazemos, o tempo inteiro.
Como tomamos decisões? Temos, internamente, um código moral, fruto de nossa formação e do nosso livre arbítrio. Quem tem filhos sabe que nem tudo é formação, nossos filhos estão constantemente tomando decisões “erradas” de acordo com o nosso próprio código moral. Há uma parcela de livre arbítrio, que é a formação recebida modulada pelas experiências pessoais.
Esse nosso código moral interno é muito claro em algumas coisas (são as nossas convicções mais profundas) e nebuloso em outras, quando ficamos em dúvida de como agir em determinadas situações. Procuramos (os mais sensatos pelo menos) conselho com pessoas em que confiamos. E confiar significa duas coisas: a pessoa não tem conflito de interesses no conselho que vai nos dar e tem um código moral com o qual, em geral, concordamos.
O pressuposto de um algoritmo que tome decisões morais é de que existe um campo comum de decisões morais “certas”. Como chegar nesse algoritmo?
Uma primeira ideia seria programar o computador com ideias simples e gerais, com as quais todos concordam. Regras como “não faça aos outros o que você não gostaria que fizessem com você” ou “o seu direito termina onde começa o meu”, arrisco dizer que são de aceitação universal. O diabo, no entanto e como sempre, mora nos detalhes. Na discussão sobre o aborto, por exemplo, quem são “os outros”? No “direito” de não se vacinar, onde começa o “direito” do outro? Regras muito gerais não resolvem o problema.
Uma outra possibilidade é confiar em um código moral externo mais detalhado. As religiões proveem esse código. Os 10 mandamentos talvez sejam o mais antigo código moral organizado que a humanidade conheceu. Muitas pessoas vivem de acordo com esses códigos, pero no mucho. As religiões hoje são encaradas mais como supermercados morais, em que as pessoas pegam nas prateleiras as regras que mais lhes convém. Muitas vezes é a vida que determina o código, e não vice-versa. E as religiões acabam se adaptando ao que as pessoas, com seus próprios códigos morais, preferem.
Eis aí o desafio de uma inteligência artificial que toma decisões morais: qual o código moral a utilizar. “Cada cabeça, uma sentença”, diz o dito popular. Fazendo a “média” dos códigos morais de milhões de pessoas, espera-se que este algoritmo se torne a “consciência moral” da humanidade. O fato é que, provavelmente, será apenas mais uma cabeça ditando regras, como todos nós fazemos. A média terá o condão de desagradar a todos, uns mais, outros menos.
Segundo a reportagem, as máquinas “ainda” têm dificuldade em lidar com temas que extrapolam a lógica matemática. Bem, se pensarmos bem, a humanidade tem exatamente a mesma dificuldade. E olha que nosso algoritmo está sendo treinado há milhares de anos.
A questão que sempre restará, tanto para a inteligência artificial quanto para a inteligência natural, é se existem um “certo” e um “errado” universais. A resposta é sim, quando tratamos da coisa genericamente (“não faça aos outros o que você não gostaria que fizessem a você”), mas tudo se complica quando descemos ao detalhe. Uma coisa é, no entanto, certa: se e quando chegarmos a um mundo onde há um consenso geral sobre o “certo” e o “errado”, pode ter certeza que este mundo será totalitário.
No filme Eu, Robô, uma inteligência artificial central chega à conclusão, muito lógica, de que, para “consertar” a humanidade, seria preciso escravizá-la e deixá-la sob o comando dos robôs, esses sim, donos de uma moral perfeita. Afinal, o mundo é bom, é o ser humano, com suas ambiguidades morais, que o estraga.