Når folk snakker om roboter og etikk, ser de alltid ut til å ta opp Isaac Asimovs «Three Laws of Robotics.» Men det er tre store problemer med disse lovene og deres bruk i vår virkelige verden.
Loven
Asimovs lover innebar opprinnelig tre retningslinjer for maskiner:
- Law One – «En robot kan ikke skade et menneske eller, ved passivitet, tillate et menneske å komme til skade.»
- Loven to – «En robot må adlyde ordrer gitt til det av mennesker med mindre det er slik ordrer ville være i konflikt med den første loven. ”
- Lov tre -» En robot må beskytte sin egen eksistens, så lenge slik beskyttelse ikke er i strid med den første eller andre loven. «
- Asimov la senere til «Zeroth-loven», fremfor alle de andre – «En robot kan ikke skade menneskeheten, eller ved passivitet, tillate menneskeheten å komme til skade.»
The Debunk
Det første problemet er at lovene er fiksjon! De er en plot-enhet som Asimov gjorde opp for å bidra til å drive historiene hans. Enda mer, historiene hans dreide seg nesten alltid om hvordan roboter kan følge disse flotte, logiske etiske kodene, men likevel komme på villspor og de utilsiktede konsekvensene som resulterer. En annonse for 2004-filmatiseringen av Asimovs berømte bok I, Robot (med den friske prinsen og Tom Bradys babymamma i hovedrollen) sa det best: «Regler ble laget for å bli brutt.»
For eksempel i en av Asimovs historier, er roboter laget for å følge lovene, men de får en viss betydning av «menneskelig.» Roboter, som forhåndsinnstiller hva som nå foregår i etniske rensingskampanjer fra den virkelige verden, gjenkjenner bare mennesker i en bestemt gruppe som «mennesker». De følger lovene, men utfører fortsatt folkemord.
Det andre problemet er at ingen teknologi ennå kan replikere Asimovs lover inne i en maskin. Som Rodney Brooks fra selskapet iRobot – oppkalt etter Asimov-boka, er de menneskene som brakte deg militærroboten Packbot og Roomba-robotstøvsugeren – sier det: «Folk spør meg om robotene våre følger Asimovs lover. Det er en enkel grunn: Jeg kan ikke bygge Asimovs lover i dem. ”
Robotist Daniel Wilson var litt mer blomster. «Asimovs regler er pene, men de er også tull. For eksempel er de på engelsk. Hvordan pokker programmerer du det?»
Den viktigste grunnen til at Asimovs lover ikke er brukt ennå, er hvordan roboter brukes i vår virkelige verden. Du bevæpner ikke en Reaper-drone med et Hellfire-missil eller setter en maskingevær på et MAARS (Modular Advanced Armed Robotic System) for ikke å få mennesker til å skade. Det er selve poenget!
Det samme gjelder å bygge en robot som tar orden fra ethvert menneske. Vil jeg virkelig at Osama Bin Laden skal kunne bestille om roboten min? Og til slutt, det faktum at roboter kan sendes ut på farlige oppdrag som skal «drepes» er ofte selve begrunnelsen for å bruke dem. Å gi dem en følelse av «eksistens» og overlevelsesinstinkt ville stride mot den begrunnelsen, samt åpne potensielle scenarier fra en annen science fiction-serie, Terminator-filmene. Poenget her er at mye av finansieringen til robotforskning kommer fra militæret, som betaler for roboter som følger det motsatte av Asimovs lover. Det ønsker eksplisitt roboter som kan drepe, tar ikke ordrer fra et hvilket som helst menneske og bryr seg ikke om deres egne eksistenser.
Et spørsmål om etikk
Det største problemet, når det gjelder roboter og etikk, er ikke om vi kan bruke noe som Asimovs lover til å lage maskiner som er moralske (som kan være en iboende motsetning, gitt at moral brytes sammen både hensikt og handling, ikke bare programmering).
Vi må heller begynne å bryte med etikken til menneskene bak maskinene. Hvor er etiske regler i robotikkfeltet for hva som blir bygget og hva gjør ikke det? Hva ville en ung robotist vende seg til? til? Hvem får bruke disse sofistikerte systemene, og hvem gjør det ikke? Er en Predator-drone en teknologi som bare burde være begrenset til militæret? Vel, for sent flyr Department of Homeland Security allerede seks Predator-droner som gjør grensesikkerhet. På samme måte utforsker mange lokale politiavdelinger kjøp av egne droner for å parkere over ham kriminelle nabolag. Jeg tror kanskje det er fornuftig, til dronen følger med på nabolaget mitt. Men hva med meg? Er det innenfor mitt andre endringsrett å ha en robot som bærer våpen?
Alt dette høres litt ut som den slags spørsmål som bare ville stilt på science fiction-konvensjoner. Men det er poenget mitt. Når vi snakker om roboter nå, snakker vi ikke lenger om «bare science fiction» som en Pentagon-analytiker beskrev om disse teknologiene. De er veldig mye en del av vår virkelige verden.