Isaac Asimovs lagar om robotik är fel

När människor pratar om robotar och etik verkar de alltid ta upp Isaac Asimovs ”Three Laws of Robotics.” Men det finns tre stora problem med dessa lagar och deras användning i vår verkliga värld.

Lagarna
Asimovs lagar innebar ursprungligen tre riktlinjer för maskiner:

  • Lag 1 – ”En robot får inte skada en människa eller, genom passivitet, tillåta en människa att komma till skada.”
  • Lag två – ”En robot måste lyda befallningar som ges av den, utom när sådana order skulle strida mot den första lagen. ”
  • Lag tre -” En robot måste skydda sin egen existens, så länge ett sådant skydd inte strider mot den första eller andra lagen. ”
  • Asimov lade senare till ”Zeroth-lagen” framför allt de andra – ”En robot får inte skada mänskligheten eller, genom passivitet, tillåta mänskligheten att komma till skada.”

The Debunk
Det första problemet är att lagarna är fiktion! De är en plotapparat som Asimov gjorde för att hjälpa till att driva sina berättelser. Ännu mer kretsade hans berättelser nästan alltid om hur robotar kan följa dessa fantastiska klingande, logiska etiska koder, men ändå gå vilse och de oavsiktliga konsekvenserna som resulterar. En reklam för 2004-filmanpassningen av Asimovs berömda bok I, Robot (med Fresh Prince och Tom Bradys babymamma i huvudrollen) uttryckte det bäst: ”Regler gjordes för att brytas.”

Till exempel i en av Asimovs berättelser är robotar gjorda för att följa lagarna, men de får en viss innebörd av ”mänsklig”. Roboterna känner igen vad som nu pågår i verkliga etniska rensningskampanjer och erkänner bara människor i en viss grupp som ”mänskliga.” De följer lagarna, men genomför fortfarande folkmord.

Det andra problemet är att ingen teknik ännu kan replikera Asimovs lagar i en maskin. Som Rodney Brooks från företaget iRobot – uppkallad efter Asimov-boken är de folket som förde dig militärroboten Packbot och dammsugaren från Roomba – säger: ”Folk frågar mig om våra robotar följer Asimovs lagar. Det finns en enkel anledning: Jag kan inte bygga Asimovs lagar i dem. ”

Robotisten Daniel Wilson var lite mer blommig. ”Asimovs regler är snygga, men de är också skitsnack. Till exempel är de på engelska. Hur är det så programmerar du det?”

Den viktigaste anledningen till att Asimovs lagar inte tillämpas ännu är hur robotar används i vår verkliga värld. Du beväpnar inte en Reaper-drönare med en Hellfire-missil eller lägger en maskingevär på ett MAARS (Modular Advanced Armed Robotic System) för att inte få människor att skada. Det är själva poängen!

Detsamma gäller att bygga en robot som tar ordning från alla människor. Vill jag verkligen att Osama Bin Laden ska kunna beställa om min robot? Och slutligen det faktum att robotar kan skickas ut på farliga uppdrag att ”dödas” är ofta själva motiveringen att använda dem. Att ge dem en känsla av ”existens” och överlevnadsinstinkt skulle strida mot den motiveringen och öppna potentiella scenarier från en annan science fiction-serie, Terminator-filmerna. Poängen här är att mycket av finansieringen för robotforskning kommer från militären, som betalar för robotar som följer det motsatta av Asimovs lagar. Det vill uttryckligen ha robotar som kan döda, tar inte order från någon människa och bryr sig inte om sina egna existenser.

En fråga om etik – Den större frågan, när det gäller robotar och etik, är dock inte om vi kan använda något som Asimovs lagar för att göra maskiner som är moraliska (vilket kan vara en inneboende motsättning, med tanke på att moral sveper ihop både avsikt och handling, inte bara programmering).

Vi måste snarare börja brottas med människorna bakom maskinerna. Var är etisk kod inom robotikområdet för vad som byggs och vad inte vad skulle en ung robotiker vända sig till till? Vem får använda dessa sofistikerade system och vem gör det inte? Är en rovdjur drönare en teknik som bara bör begränsas till militären? Nåväl, för sent flyger Department of Homeland Security redan sex rovdjur som gör gränssäkerhet. På samma sätt utforskar många lokala polisavdelningar inköp av egna drönare för att parkera över honom kriminella stadsdelar. Jag kanske tror att det är vettigt tills drönaren tittar på mitt grannskap. Men hur är det med mig? Ligger det inom mitt andra ändringsförslag rätt att ha en robot som bär armar?

Dessa låter alla lite som den typ av frågor som bara skulle ställas vid science fiction-konventioner. Men det är min poäng. När vi pratar om robotar nu talar vi inte längre om ”bara science fiction” som en Pentagon-analytiker beskrev om dessa tekniker. De är mycket en del av vår verkliga värld.

Skriv ut

Leave a Reply

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *