Isaac Asimovs love om robotteknologi er forkerte

Når folk taler om robotter og etik, ser de altid ud til at bringe Isaac Asimovs “Three Laws of Robotics” op. Men der er tre store problemer med disse love og deres anvendelse i vores virkelige verden.

Loven
Asimovs love indebar oprindeligt tre retningslinjer for maskiner:

  • Law One – “En robot må ikke skade et menneske eller gennem passivitet tillade et menneske at komme til skade.”
  • Loven to – “En robot skal adlyde ordrer, der gives af mennesker, undtagen hvor sådanne ordrer ville være i konflikt med den første lov. ”
  • Lov tre -” En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med den første eller anden lov. “
  • Asimov tilføjede senere “Zeroth-loven” frem for alle de andre – “En robot kan ikke skade menneskeheden eller ved passivitet tillade menneskeheden at komme til skade.”

Debunk
Det første problem er, at lovene er fiktion! De er en plot-enhed, som Asimov udgjorde for at hjælpe med at drive hans historier. Endnu mere drejede hans fortællinger næsten altid sig om, hvordan robotter kunne følge disse store klingende, logiske etiske koder, men stadig komme på afveje og de utilsigtede konsekvenser, der resulterer. En annonce for filmatiseringen fra 2004 af Asimovs berømte bog I, Robot (med den friske prins og Tom Bradys babymama i hovedrollen) udtrykte det bedst: “Regler blev lavet for at blive brudt.”

For eksempel i en af Asimovs historier er robotterne lavet til at følge lovene, men de får en vis betydning af “menneske”. Robotterne præferificerer, hvad der nu foregår i virkelige etniske udrensningskampagner, og anerkender kun mennesker i en bestemt gruppe som “mennesker”. De følger lovene, men udfører stadig folkedrab.

Det andet problem er, at ingen teknologi endnu kan replikere Asimovs love inde i en maskine. Som Rodney Brooks fra firmaet iRobot – opkaldt efter Asimov-bogen, er de de mennesker, der bragte dig Packbot-militærrobotten og Roomba-robotstøvsugeren – siger det: “Folk spørger mig om vores robotter følger Asimovs love. Der er en enkel grund: Jeg kan ikke bygge Asimovs love i dem. ”

Robot Daniel Wilson var lidt mere florid. “Asimovs regler er pæne, men de er også lort. For eksempel er de på engelsk. Hvordan pokker programmerer du det?”

Den vigtigste årsag til, at Asimovs love endnu ikke er anvendt, er, hvordan robotter er bliver brugt i vores virkelige verden. Du bevæbner ikke en Reaper-drone med et Hellfire-missil eller lægger en maskingevær på et MAARS (Modular Advanced Armed Robotic System) for ikke at få mennesker til at komme til skade. Det er netop pointen!

Det samme gælder for at opbygge en robot, der tager orden fra ethvert menneske. Vil jeg virkelig have, at Osama Bin Laden skal kunne bestille om min robot? Og endelig det faktum, at robotter kan sendes ud på farlige missioner, der skal “dræbes”, er ofte selve grunden til at bruge dem. At give dem en følelse af “eksistens” og overlevelsesinstinkt ville stride mod denne begrundelse og åbne potentielle scenarier fra en anden science fiction-serie, Terminator-filmene. Pointen her er, at meget af finansieringen til robotforskning kommer fra militær, der betaler for robotter, der følger det modsatte af Asimovs love. Det ønsker eksplicit robotter, der kan dræbe, vil ikke tage ordrer fra ethvert menneske og er ligeglad med deres egne eksistenser.

Et spørgsmål om etik
Det større spørgsmål, når det kommer til robotter og etik, er dog ikke, om vi kan bruge noget som Asimovs love til at fremstille maskiner, der er moralske (hvilket kan være en iboende modsætning, i betragtning af at moral ombrydes både hensigt og handling, ikke blot programmering).

Vi skal snarere begynde at kæmpe med etikken hos menneskerne bag maskinerne. Hvor er kodeksen i robotteknologi for hvad der bliver bygget og hvad gør ikke det? Hvad ville en ung robotiker henvende sig til? til? Hvem får brugt disse sofistikerede systemer, og hvem gør det ikke? Er en rovdyr-drone en teknologi, der bare skal være begrænset til militæret? Nå for sent flyver Department of Homeland Security allerede seks rovdyr-droner, der gør grænsesikkerhed. Ligeledes undersøger mange lokale politiafdelinger køb af deres egne droner for at parkere over ham kriminelle kvarterer. Jeg tror måske, det giver mening, indtil dronen holder øje med mit kvarter. Men hvad med mig? Er det inden for min 2. ændringsret, at have en robot, der bærer våben?

Disse lyder alle lidt som den slags spørgsmål, der kun ville blive stillet ved science fiction-konventioner. Men det er min pointe. Når vi taler om robotter nu, taler vi ikke længere om “blot science fiction”, som en Pentagon-analytiker beskrev om disse teknologier. De er meget en del af vores virkelige verden.

Udskriv

Leave a Reply

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *