Kiedy ludzie mówią o robotach i etyce, zawsze wydają się przywoływać „Trzy prawa robotyki” Isaaca Asimova. Ale są trzy główne problemy z tymi prawami i ich wykorzystaniem w naszym prawdziwym świecie.
Prawa
Prawa Asimova początkowo obejmowały trzy wytyczne dla maszyn:
- Prawo pierwsze – „Robot nie może zranić człowieka ani przez bezczynność pozwolić człowiekowi na wyrządzenie krzywdy”.
- Prawo drugie – „Robot musi wykonywać rozkazy wydawane mu przez ludzi, chyba że takie rozkazy byłyby sprzeczne z pierwszym prawem ”.
- Trzecia zasada -„ Robot musi chronić swoje własne istnienie, o ile taka ochrona nie jest sprzeczna z pierwszym lub drugim prawem ”.
- Asimov dodał później „Prawo Zerotha” ponad wszystkie inne – „Robot nie może skrzywdzić ludzkości lub, przez bezczynność, pozwolić jej skrzywdzić”.
Podważanie
Pierwszym problemem jest to, że prawa są fikcją! Są narzędziem fabularnym, które Asimov wymyślił, aby pomóc w napędzaniu jego historii. Co więcej, jego opowieści prawie zawsze krążyły wokół tego, jak roboty mogą podążać za tymi świetnie brzmiącymi, logicznymi kodeksami etycznymi, ale wciąż błądzą i niezamierzonymi konsekwencjami, jakie z tego wynikają. Reklama filmowej adaptacji słynnej książki Asimova „Ja, Robot” z 2004 roku (z udziałem Świeżego Księcia i małej mamy Toma Brady’ego) ujęła to najlepiej: „Zasady zostały stworzone po to, by je łamać”.
Na przykład w jednym w opowieściach Asimova roboty są zmuszane do przestrzegania prawa, ale nadano im pewne znaczenie „człowiek”. Wstępnie konfigurując to, co dzieje się teraz w prawdziwych kampaniach czystek etnicznych, roboty rozpoznają tylko ludzi z określonej grupy jako „ludzi”. Przestrzegają prawa, ale nadal dopuszczają się ludobójstwa.
Drugi problem polega na tym, że żadna technologia nie jest jeszcze w stanie odtworzyć praw Asimova wewnątrz maszyny. Jako Rodney Brooks z firmy iRobot – nazwanej na cześć książki Asimova, są ludzie, którzy przynieśli ci robota wojskowego Packbot i robota odkurzającego Roomba – ujął to: „Ludzie pytają mnie, czy nasze roboty przestrzegają praw Asimova. Jest prosty powód: nie mogę w nich zbudować praw Asimova ”.
Robotyk Daniel Wilson był nieco bardziej rumiany. „Zasady Asimova są zgrabne, ale są też bzdury. Na przykład są po angielsku. Jak do cholery to programujesz?”
Najważniejszym powodem, dla którego Prawa Asimova nie są jeszcze stosowane, jest to, że roboty są używane w naszym prawdziwym świecie. Nie uzbroisz drona Reaper w pocisk Hellfire ani nie umieszczasz karabinu maszynowego na MAARS (modułowym zaawansowanym uzbrojonym systemie robotycznym), aby nie powodować szkód dla ludzi. I o to chodzi!
To samo dotyczy budowy robota, który przyjmuje rozkazy od każdego człowieka. Czy naprawdę chcę, aby Osama Bin Laden mógł wydawać rozkazy dotyczące mojego robota? I wreszcie fakt, że roboty mogą być wysyłane na niebezpieczne misje, które mają zostać „zabite”, są często uzasadnieniem ich wykorzystania. Danie im poczucia „istnienia” i instynktu przetrwania byłoby sprzeczne z tym uzasadnieniem, a także otwiera potencjalne scenariusze z innej serii science fiction, filmów Terminator. Chodzi o to, że znaczna część funduszy na badania nad robotami pochodzi z wojsko, które płaci za roboty działające w przeciwieństwie do praw Asimova. Wyraźnie chce robotów, które potrafią zabijać, nie będą przyjmować rozkazów od żadnego człowieka i nie dbają o własne istnienie.
Kwestia etyki
Większą kwestią, jeśli chodzi o roboty i etykę, nie jest to, czy możemy użyć czegoś takiego jak prawa Asimova, aby stworzyć maszyny, które są moralne (co może być wewnętrzną sprzecznością, biorąc pod uwagę, że moralność się łączy zarówno zamiaru, jak i działania, a nie tylko programowania).
Zamiast tego musimy zacząć zmagać się z etyką ludzi stojących za maszynami. Gdzie jest kodeks etyczny w dziedzinie robotyki określający, co jest budowane i co nie? Do czego zwróciłby się młody robotycy do? Kto może korzystać z tych wyrafinowanych systemów, a kto nie? Czy dron Predator to technologia, która powinna być ograniczona tylko do wojska? Cóż, za późno, Departament Bezpieczeństwa Wewnętrznego już lata sześć dronów Predator zajmujących się ochroną granic. Podobnie wiele lokalnych wydziałów policji bada możliwość zakupu własnych dronów, aby parkować nad nim w dzielnicach przestępczych. Myślę, że to ma sens, dopóki dron nie obserwuje mojej okolicy. Ale co ze mną? Czy moja druga poprawka ma prawo mieć robota z bronią?
To wszystko brzmi trochę jak pytania, które można by zadawać tylko na konwencjach science fiction. Ale o to mi chodzi. Kiedy mówimy teraz o robotach, nie mówimy już o „zwykłej science fiction”, jak opisał je jeden z analityków Pentagonu. Są one w dużej mierze częścią naszego prawdziwego świata.