De wetten van de robotica van Isaac Asimov zijn verkeerd

Als mensen het over robots en ethiek hebben, lijken ze altijd de “Drie wetten van robotica” van Isaac Asimov ter sprake te brengen. Maar er zijn drie grote problemen met deze wetten en het gebruik ervan in onze echte wereld.

De wetten
De wetten van Asimov bevatten aanvankelijk drie richtlijnen voor machines:

  • Law One – “Een robot mag een mens niet verwonden of, door niets te doen, een mens schade laten berokkenen.”
  • Wet twee – “Een robot moet bevelen opvolgen die hem door mensen zijn gegeven, behalve waar dergelijke bevelen zouden in strijd zijn met de eerste wet. “
  • Wet drie -” Een robot moet zijn eigen bestaan beschermen, zolang die bescherming niet in strijd is met de eerste of tweede wet. “
  • Asimov voegde later de “Zeroth Law” toe, boven alle andere: “Een robot mag de mensheid geen schade toebrengen, of, door inactiviteit, de mensheid schade toebrengen.”

The Debunk
Het eerste probleem is dat de wetten fictie zijn! Ze zijn een plot-apparaat dat Asimov heeft bedacht om zijn verhalen te helpen stimuleren. Sterker nog, zijn verhalen gingen bijna altijd over hoe robots deze geweldig klinkende, logische ethische codes zouden kunnen volgen, maar toch op een dwaalspoor kunnen raken en de onbedoelde gevolgen die daaruit voortvloeien. Een advertentie voor de filmaanpassing uit 2004 van Asimovs beroemde boek I, Robot (met in de hoofdrol de Fresh Prince en Tom Brady’s baby-mama) zei het het beste: “Regels zijn gemaakt om gebroken te worden.”

Bijvoorbeeld in één In de verhalen van Asimov zijn robots gemaakt om de wetten te volgen, maar ze krijgen een bepaalde betekenis van ‘menselijk’. Door vooraf te configureren wat er nu gebeurt in echte etnische zuiveringscampagnes, herkennen de robots alleen mensen van een bepaalde groep als ‘mensen’. Ze volgen de wetten, maar plegen nog steeds genocide.

Het tweede probleem is dat nog geen technologie de wetten van Asimov in een machine kan repliceren. Zoals Rodney Brooks van het bedrijf iRobot – genoemd naar het Asimov-boek, zijn ze de mensen die je de militaire robot Packbot en de robotstofzuiger Roomba hebben gebracht – zeggen: “Mensen vragen me of onze robots de wetten van Asimov volgen. Er is een simpele reden: ik kan er geen Asimovs wetten in bouwen. ”

Roboticus Daniel Wilson was een beetje meer bloemig. “De regels van Asimov zijn netjes, maar ze zijn ook onzin. Ze zijn bijvoorbeeld in het Engels. Hoe programmeer je dat in vredesnaam?”

De belangrijkste reden waarom de wetten van Asimov nog niet worden toegepast, is hoe robots worden gebruikt in onze echte wereld.Je bewapent een Reaper-drone niet met een Hellfire-raket of plaatst geen machinegeweer op een MAARS (Modular Advanced Armed Robotic System) om mensen niet te laten verwonden. Dat is precies het punt!

Hetzelfde geldt voor het bouwen van een robot die de opdracht aanneemt van een mens. Wil ik echt dat Osama Bin Laden kan bestellen over mijn robot? En tot slot, het feit dat robots op gevaarlijke missies die moeten worden “gedood”, is vaak de grondgedachte om ze te gebruiken. Ze een gevoel van ‘bestaan’ en overlevingsinstinct geven, zou in strijd zijn met die grondgedachte, en zou ook mogelijke scenario’s openen uit een andere sciencefictionreeks, de Terminator-films. Het punt hier is dat veel van de financiering voor robotonderzoek afkomstig is van de leger, dat betaalt voor robots die precies het tegenovergestelde volgen van de wetten van Asimov. Het wil expliciet robots die kunnen doden, geen bevelen aannemen van zomaar een mens en zich niets aantrekken van hun eigen bestaan.

Een kwestie van ethiek
Het grotere probleem als het gaat om robots en ethiek is echter niet of we zoiets als de wetten van Asimov kunnen gebruiken om machines te maken die moreel zijn (wat een inherente tegenstrijdigheid kan zijn, aangezien moraliteit samengaat) zowel intentie als actie, niet louter programmeren).

We moeten eerder worstelen met de ethiek van de mensen achter de machines. Waar is de ethische code op het gebied van robotica voor wat er wordt gebouwd en wat Waar zou een jonge roboticus zich op richten naar? Wie kan deze geavanceerde systemen gebruiken en wie niet? Is een Predator-drone een technologie die alleen beperkt zou moeten blijven tot het leger? Het is te laat, het Department of Homeland Security vliegt al met zes Predator-drones die grensbewaking doen. Evenzo onderzoeken veel lokale politie-afdelingen de aankoop van hun eigen drones om boven hem criminele buurten te parkeren. Ik denk misschien dat dat logisch is, totdat de drone mijn buurt in de gaten houdt. Maar hoe zit het met mij? Is het binnen mijn tweede amendement het recht om een robot te hebben die wapens draagt?

Deze klinken allemaal een beetje als het soort vragen dat alleen zou worden gesteld op sciencefictionconventies. Maar dat is mijn punt. Als we het nu over robots hebben, hebben we het niet langer over ‘louter sciencefiction’, zoals een Pentagon-analist van deze technologieën beschreef. Ze maken in hoge mate deel uit van onze echte wereld.

Afdrukken

Leave a Reply

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *