Reportagem do NYT, reproduzida pelo Estadão, descreve os últimos avanços da inteligência artificial no campo das decisões morais. Um software batizado Delphi (em homenagem ao oráculo de Delfos) está sendo “treinado” com milhões de decisões de seres humanos reais, que envolvem algum julgamento moral. A questão que se coloca, claro, é se um algoritmo, por mais poderoso que seja, será um dia capaz de tomar decisões morais.
Em primeiro lugar, o que é moral? Não sou filósofo, então vou responder “leigamente”: moral é tudo aquilo que regula o comportamento dos seres humanos em relação aos seus pares e a si mesmo. Os seres humanos são seres morais, então todos as suas decisões carregam uma carga moral. Mesmo a decisão de escovar ou não os dentes de manhã tem implicações morais: se eu não escovar estarei dando bom exemplo ao meu filho? Estarei atentando contra a minha própria saúde? Esta pasta foi fabricada com elementos tóxicos que estão prejudicando populações indefesas? Enfim, as mais simples decisões carregam implicações morais, pelo simples fato de serem decisões humanas. Temos uma bússola interna que aponta o “certo” e o “errado” em tudo o que fazemos, o tempo inteiro.
Como tomamos decisões? Temos, internamente, um código moral, fruto de nossa formação e do nosso livre arbítrio. Quem tem filhos sabe que nem tudo é formação, nossos filhos estão constantemente tomando decisões “erradas” de acordo com o nosso próprio código moral. Há uma parcela de livre arbítrio, que é a formação recebida modulada pelas experiências pessoais.
Esse nosso código moral interno é muito claro em algumas coisas (são as nossas convicções mais profundas) e nebuloso em outras, quando ficamos em dúvida de como agir em determinadas situações. Procuramos (os mais sensatos pelo menos) conselho com pessoas em que confiamos. E confiar significa duas coisas: a pessoa não tem conflito de interesses no conselho que vai nos dar e tem um código moral com o qual, em geral, concordamos.
O pressuposto de um algoritmo que tome decisões morais é de que existe um campo comum de decisões morais “certas”. Como chegar nesse algoritmo?
Uma primeira ideia seria programar o computador com ideias simples e gerais, com as quais todos concordam. Regras como “não faça aos outros o que você não gostaria que fizessem com você” ou “o seu direito termina onde começa o meu”, arrisco dizer que são de aceitação universal. O diabo, no entanto e como sempre, mora nos detalhes. Na discussão sobre o aborto, por exemplo, quem são “os outros”? No “direito” de não se vacinar, onde começa o “direito” do outro? Regras muito gerais não resolvem o problema.
Uma outra possibilidade é confiar em um código moral externo mais detalhado. As religiões proveem esse código. Os 10 mandamentos talvez sejam o mais antigo código moral organizado que a humanidade conheceu. Muitas pessoas vivem de acordo com esses códigos, pero no mucho. As religiões hoje são encaradas mais como supermercados morais, em que as pessoas pegam nas prateleiras as regras que mais lhes convém. Muitas vezes é a vida que determina o código, e não vice-versa. E as religiões acabam se adaptando ao que as pessoas, com seus próprios códigos morais, preferem.
Eis aí o desafio de uma inteligência artificial que toma decisões morais: qual o código moral a utilizar. “Cada cabeça, uma sentença”, diz o dito popular. Fazendo a “média” dos códigos morais de milhões de pessoas, espera-se que este algoritmo se torne a “consciência moral” da humanidade. O fato é que, provavelmente, será apenas mais uma cabeça ditando regras, como todos nós fazemos. A média terá o condão de desagradar a todos, uns mais, outros menos.
Segundo a reportagem, as máquinas “ainda” têm dificuldade em lidar com temas que extrapolam a lógica matemática. Bem, se pensarmos bem, a humanidade tem exatamente a mesma dificuldade. E olha que nosso algoritmo está sendo treinado há milhares de anos.
A questão que sempre restará, tanto para a inteligência artificial quanto para a inteligência natural, é se existem um “certo” e um “errado” universais. A resposta é sim, quando tratamos da coisa genericamente (“não faça aos outros o que você não gostaria que fizessem a você”), mas tudo se complica quando descemos ao detalhe. Uma coisa é, no entanto, certa: se e quando chegarmos a um mundo onde há um consenso geral sobre o “certo” e o “errado”, pode ter certeza que este mundo será totalitário.
No filme Eu, Robô, uma inteligência artificial central chega à conclusão, muito lógica, de que, para “consertar” a humanidade, seria preciso escravizá-la e deixá-la sob o comando dos robôs, esses sim, donos de uma moral perfeita. Afinal, o mundo é bom, é o ser humano, com suas ambiguidades morais, que o estraga.