As Leis da Robótica de Isaac Asimov estão erradas

Quando as pessoas falam sobre robôs e ética, elas sempre parecem trazer à tona as “Três Leis da Robótica” de Isaac Asimov. Mas existem três problemas principais com essas leis e seu uso em nosso mundo real.

As Leis
As leis de Asimov inicialmente envolviam três diretrizes para máquinas:

  • Lei Um – “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano.”
  • Lei Dois – “Um robô deve obedecer às ordens dadas a ele por seres humanos, exceto quando tal ordens entrariam em conflito com a Primeira Lei. ”
  • Lei Três -” Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei. ”
  • Asimov mais tarde adicionou a “Lei Zero”, acima de todas as outras – “Um robô não pode prejudicar a humanidade ou, por inação, permitir que a humanidade seja prejudicada.”

O Desmascaramento
O primeiro problema é que as leis são ficção! Eles são um artifício de trama que Asimov inventou para ajudar a impulsionar suas histórias. Mais ainda, seus contos quase sempre giravam em torno de como os robôs podem seguir esses códigos éticos lógicos e sonantes, mas ainda assim se extraviar e as consequências indesejadas daí resultantes. Um anúncio da adaptação cinematográfica de 2004 do famoso livro de Asimov, I, Robot (estrelado pelo Príncipe Fresco e a mamãe bebê de Tom Brady) expressou da melhor maneira: “As regras foram feitas para serem quebradas.” das histórias de Asimov, os robôs são feitos para seguir as leis, mas eles recebem um certo significado de “humano”. Prefigurando o que agora acontece nas campanhas de limpeza étnica do mundo real, os robôs reconhecem apenas pessoas de um determinado grupo como “humanos”. Eles seguem as leis, mas ainda cometem genocídio.

O segundo problema é que nenhuma tecnologia pode ainda reproduzir as leis de Asimov dentro de uma máquina. Como Rodney Brooks, da empresa iRobot – batizada com o nome do livro Asimov, eles são as pessoas que trouxeram para você o robô militar Packbot e o aspirador de pó Roomba – colocam: “As pessoas me perguntam se nossos robôs seguem as leis de Asimov. Há uma razão simples: não posso construir as leis de Asimov com eles. ”

O roboticista Daniel Wilson era um pouco mais floreado. “As regras de Asimov são legais, mas também são uma besteira. Por exemplo, elas estão em inglês. Como diabos você programa isso?”

A razão mais importante para as Leis de Asimov ainda não serem aplicadas é como os robôs estão sendo usados em nosso mundo real. Você não arma um drone Reaper com um míssil Hellfire ou coloca uma metralhadora em um MAARS (Modular Advanced Armed Robotic System) para não causar danos aos humanos. Esse é o ponto exato!

O mesmo se aplica à construção de um robô que recebe ordens de qualquer humano. Eu realmente quero que Osama Bin Laden seja capaz de fazer ordens sobre meu robô? E, finalmente, o fato de que robôs podem ser enviados em perigosas missões a serem “mortas” costumam ser a justificativa para usá-los. Dar a eles um senso de “existência” e instinto de sobrevivência iria contra esse raciocínio, bem como abriria cenários potenciais de outra série de ficção científica, os filmes Terminator. O ponto aqui é que grande parte do financiamento para pesquisas robóticas vem do militar, que está pagando por robôs que seguem exatamente o oposto das leis de Asimov. Ele quer explicitamente robôs que possam matar, não aceitarão ordens de qualquer humano e não se importam com suas próprias existências.

Uma questão de ética
A maior questão, porém, quando se trata de robôs e ética não é se podemos usar algo como as leis de Asimov para fazer máquinas que são morais (o que pode ser uma contradição inerente, visto que a moralidade se envolve intenção e ação, não mera programação).

Em vez disso, precisamos começar a lutar contra a ética das pessoas por trás das máquinas. Onde está o código de ética no campo da robótica para o que é construído e o que não? Para o que um jovem roboticista se voltaria para? Quem pode usar esses sistemas sofisticados e quem não? Um drone Predator é uma tecnologia que deveria ser limitada apenas aos militares? Bem, tarde demais, o Departamento de Segurança Interna já está pilotando seis drones Predator fazendo a segurança da fronteira. Da mesma forma, muitos departamentos de polícia locais estão explorando a compra de seus próprios drones para estacionar sobre os bairros criminosos. Posso achar que faz sentido, até que o drone esteja vigiando minha vizinhança. Mas e eu? Está no meu direito de 2ª emenda ter um robô que carregue armas?

Tudo isso soa um pouco como o tipo de perguntas que só seriam colocadas em convenções de ficção científica. Mas esse é o meu ponto. Quando falamos sobre robôs agora, não estamos mais falando sobre “mera ficção científica”, como um analista do Pentágono descreveu essas tecnologias. Elas fazem parte de nosso mundo real.

Imprimir

Leave a Reply

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *