Quando le persone parlano di robot ed etica, sembrano sempre tirare in ballo le “Tre leggi della robotica” di Isaac Asimov. Ma ci sono tre problemi principali con queste leggi e il loro utilizzo nel nostro mondo reale.
Le leggi
Le leggi di Asimov inizialmente prevedevano tre linee guida per le macchine:
- Prima Legge – “Un robot non può ferire un essere umano o, per inerzia, permettere a un essere umano di subire danni.”
- Seconda legge – “Un robot deve obbedire agli ordini impartitigli da esseri umani, eccetto dove tale ordini sarebbero in conflitto con la Prima Legge. “
- Terza Legge -” Un robot deve proteggere la propria esistenza, a condizione che tale protezione non sia in conflitto con la Prima o la Seconda Legge. “
- Asimov in seguito aggiunse la “Legge Zeroth”, sopra tutte le altre: “Un robot non può danneggiare l’umanità o, per inerzia, permettere che l’umanità venga a nuocere”.
Il Debunk
Il primo problema è che le leggi sono finzione! Sono un espediente della trama che Asimov ha inventato per aiutare a guidare le sue storie. Inoltre, i suoi racconti ruotavano quasi sempre intorno a come i robot potrebbero seguire questi codici etici logici e dal suono eccezionale, ma comunque andare fuori strada e le conseguenze non intenzionali che ne derivano. Una pubblicità per l’adattamento cinematografico del 2004 del famoso libro di Asimov I, Robot (interpretato da Fresh Prince e la piccola mamma di Tom Brady) lo descriveva meglio: “Le regole erano fatte per essere infrante”.
Ad esempio, in uno delle storie di Asimov, i robot sono fatti per seguire le leggi, ma viene loro attribuito un certo significato di “umano”. Prefigurando ciò che accade ora nelle campagne di pulizia etnica del mondo reale, i robot riconoscono solo le persone di un certo gruppo come “umane”. Seguono le leggi, ma continuano a compiere genocidio.
Il secondo problema è che nessuna tecnologia può ancora replicare le leggi di Asimov all’interno di una macchina. Come Rodney Brooks della società iRobot, dal nome del libro di Asimov, sono le persone che ti hanno portato il robot militare Packbot e il robot aspirapolvere Roomba — dice: “Le persone mi chiedono se i nostri robot seguono le leggi di Asimov. C’è una semplice ragione: non posso costruirvi le leggi di Asimov. “
Il robotista Daniel Wilson era un po ‘più florido. “Le regole di Asimov sono chiare, ma sono anche cazzate. Ad esempio, sono in inglese. Come diavolo lo programmate?”
La ragione più importante per cui le leggi di Asimov non vengono ancora applicate è il modo in cui i robot vengono utilizzati nel nostro mondo reale. Non armate un drone Reaper con un missile Hellfire o non mettete una mitragliatrice su un MAARS (Modular Advanced Armed Robotic System) per non causare danni agli umani. Questo è il punto!
Lo stesso vale per la costruzione di un robot che prende l’ordine da qualsiasi essere umano. Voglio davvero che Osama Bin Laden possa ordinare il mio robot? E infine, il fatto che i robot possono essere inviati su pericolosi le missioni da “uccidere” è spesso la logica stessa del loro utilizzo. Per dare loro un senso di “esistenza” e l’istinto di sopravvivenza andrebbe contro questa logica, così come apre potenziali scenari di un’altra serie di fantascienza, i film di Terminator. Il punto qui è che gran parte del finanziamento per la ricerca robotica proviene dal militare, che paga per robot che seguono l’esatto contrario delle leggi di Asimov. Vuole esplicitamente robot in grado di uccidere, non prenderanno ordini da qualsiasi essere umano e non si preoccupino della propria esistenza.
Una questione di etica
Il problema più grande, tuttavia, quando si tratta di robot e di etica non è se possiamo usare qualcosa come le leggi di Asimov per creare macchine che siano morali (il che può essere una contraddizione intrinseca, dato che la moralità intenti e azioni, non mera programmazione).
Piuttosto, dobbiamo iniziare a lottare con l’etica delle persone dietro le macchine. Dov’è il codice etico nel campo della robotica per ciò che viene costruito e cosa A cosa si rivolgerebbero un giovane robotista per? Chi può utilizzare questi sistemi sofisticati e chi no? Un drone Predator è una tecnologia che dovrebbe essere limitata ai militari? Ebbene, troppo tardi, il Dipartimento per la sicurezza interna sta già pilotando sei droni Predator per la sicurezza del confine. Allo stesso modo, molti dipartimenti di polizia locali stanno esplorando l’acquisto dei propri droni per parcheggiare nei suoi quartieri criminali. Potrei pensare che abbia senso, finché il drone non sta guardando il mio quartiere. Ma per quanto mi riguarda? Rientra nel mio secondo diritto di emendamento avere un robot che porti le braccia?
Tutto questo suona un po ‘come il tipo di domande che verrebbero poste solo alle convenzioni di fantascienza. Ma questo è il punto. Quando parliamo di robot ora, non parliamo più di “mera fantascienza” come ha descritto un analista del Pentagono di queste tecnologie. Sono parte integrante del nostro mondo reale.