Isaac Asimovs Gesetze der Robotik sind falsch

Wenn Leute über Roboter und Ethik sprechen, scheinen sie immer Isaac Asimovs „Drei Gesetze der Robotik“ zur Sprache zu bringen. Es gibt jedoch drei Hauptprobleme mit diesen Gesetzen und ihrer Anwendung in unserer realen Welt.

Die Gesetze
Asimovs Gesetze enthielten zunächst drei Richtlinien für Maschinen:

  • Gesetz Eins – „Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt.“
  • Gesetz Zwei – „Ein Roboter muss den Anweisungen des Menschen folgen, es sei denn, dies ist der Fall Befehle würden mit dem ersten Gesetz in Konflikt stehen. “
  • Gesetz Drei -„ Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht. “
  • Asimov fügte später vor allem das „Zeroth-Gesetz“ hinzu: „Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit Schaden nimmt.“

The Debunk
Das erste Problem ist, dass die Gesetze Fiktion sind! Sie sind ein Handlungsinstrument, das Asimov erfunden hat, um seine Geschichten voranzutreiben. Darüber hinaus drehten sich seine Geschichten fast immer darum, wie Roboter diesen großartig klingenden, logischen ethischen Codes folgen könnten, aber dennoch in die Irre gehen und die unbeabsichtigten Konsequenzen, die sich daraus ergeben. In einer Werbung für die Verfilmung von Asimovs berühmtem Buch I, Robot (mit dem frischen Prinzen und Tom Bradys Baby-Mama) aus dem Jahr 2004 heißt es am besten: „Regeln wurden gemacht, um gebrochen zu werden.“

Zum Beispiel in einem In Asimovs Geschichten werden Roboter dazu gebracht, den Gesetzen zu folgen, aber ihnen wird eine bestimmte Bedeutung von „Mensch“ gegeben. Die Roboter stellen vor, was jetzt in realen ethnischen Säuberungskampagnen vor sich geht, und erkennen nur Menschen einer bestimmten Gruppe als „Menschen“. Sie folgen den Gesetzen, führen aber immer noch Völkermord durch.

Das zweite Problem ist, dass noch keine Technologie Asimovs Gesetze in einer Maschine nachbilden kann. Als Rodney Brooks von der Firma iRobot – benannt nach dem Asimov-Buch – sind sie es Die Leute, die Ihnen den Packbot-Militärroboter und den Roomba-Roboterstaubsauger gebracht haben, sagen: „Die Leute fragen mich, ob unsere Roboter Asimovs Gesetzen folgen. Es gibt einen einfachen Grund: Ich kann Asimovs Gesetze nicht darin aufbauen. “

Der Robotiker Daniel Wilson war etwas blumiger. „Asimovs Regeln sind ordentlich, aber sie sind auch Schwachsinn. Zum Beispiel sind sie auf Englisch. Wie zum Teufel programmieren Sie das?“

Der wichtigste Grund dafür, dass Asimovs Gesetze noch nicht angewendet werden, ist, wie Roboter werden in unserer realen Welt eingesetzt. Sie bewaffnen keine Reaper-Drohne mit einer Höllenfeuer-Rakete und setzen kein Maschinengewehr auf ein MAARS (Modular Advanced Armed Robotic System), um Menschen nicht zu verletzen. Genau das ist der Punkt!

Das Gleiche gilt für den Bau eines Roboters, der von jedem Menschen Ordnung erhält. Möchte ich wirklich, dass Osama Bin Laden über meinen Roboter bestellen kann? Und schließlich die Tatsache, dass Roboter auf gefährliche Weise ausgesandt werden können Missionen, die „getötet“ werden sollen, sind oft die eigentliche Begründung für ihre Verwendung. Ihnen ein Gefühl von „Existenz“ und Überlebensinstinkt zu vermitteln, würde dieser Überlegung widersprechen und potenzielle Szenarien aus einer anderen Science-Fiction-Serie, den Terminator-Filmen, eröffnen. Der Punkt hier ist, dass ein Großteil der Finanzierung für die Roboterforschung aus dem Das Militär zahlt für Roboter, die genau dem Gegenteil von Asimovs Gesetzen folgen. Es will ausdrücklich Roboter, die töten können, keine Befehle von irgendjemandem entgegennehmen und sich nicht um ihre eigenen Existenzen kümmern.

Eine Frage der Ethik
Das größere Problem bei Robotern und Ethik ist jedoch nicht, ob wir so etwas wie Asimovs Gesetze verwenden können, um Maschinen herzustellen, die moralisch sind (was ein inhärenter Widerspruch sein kann, wenn man bedenkt, dass die Moral zusammenwächst sowohl Absicht als auch Handlung, nicht bloße Programmierung).

Vielmehr müssen wir anfangen, mit der Ethik der Menschen hinter den Maschinen zu ringen. Wo ist der Ethikkodex im Bereich der Robotik für das, was gebaut wird und was? Wofür würde sich ein junger Robotiker wenden? zu? Wer darf diese hoch entwickelten Systeme nutzen und wer nicht? Ist eine Predator-Drohne eine Technologie, die nur auf das Militär beschränkt sein sollte? Nun, zu spät fliegt das Department of Homeland Security bereits sechs Predator-Drohnen, um die Grenzsicherheit zu gewährleisten. Ebenso prüfen viele örtliche Polizeidienststellen den Kauf ihrer eigenen Drohnen, um über ihm kriminelle Viertel zu parken. Ich denke vielleicht, dass das Sinn macht, bis die Drohne meine Nachbarschaft beobachtet. Aber was ist mit mir? Gehört es zu meinem zweiten Änderungsrecht, einen Roboter zu haben, der Waffen trägt?

Das klingt alles ein bisschen nach Fragen, die nur auf Science-Fiction-Konventionen gestellt werden. Aber das ist mein Punkt. Wenn wir jetzt über Roboter sprechen, sprechen wir nicht mehr von „bloßer Science-Fiction“, wie ein Pentagon-Analyst diese Technologien beschrieben hat. Sie sind ein wesentlicher Bestandteil unserer realen Welt.

Drucken

Leave a Reply

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.