Les lois de la robotique d’Isaac Asimov sont fausses

Lorsque les gens parlent de robots et d’éthique, ils semblent toujours évoquer les «Trois lois de la robotique» d’Isaac Asimov. Mais il y a trois problèmes majeurs avec ces lois et leur utilisation dans notre monde réel.

Les lois
Les lois d’Asimov comportaient initialement trois lignes directrices pour les machines:

  • Loi Un – « Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de lui faire du mal. »
  • Deuxième loi – « Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf les ordres seraient en conflit avec la première loi. « 
  • Troisième loi – » Un robot doit protéger sa propre existence, tant qu’une telle protection n’est pas en conflit avec la première ou la deuxième loi. « 
  • Asimov a ajouté plus tard la « Loi Zeroth », au-dessus de toutes les autres – « Un robot ne peut pas nuire à l’humanité ou, par inaction, permettre à l’humanité de nuire. »

The Debunk
Le premier problème est que les lois sont de la fiction! Ils sont un dispositif d’intrigue qu’Asimov a inventé pour aider à conduire ses histoires. Plus encore, ses récits tournaient presque toujours autour de la façon dont les robots pouvaient suivre ces codes éthiques logiques et à fort son, mais toujours s’égarer et les conséquences involontaires qui en résultent. Une publicité pour l’adaptation cinématographique de 2004 du célèbre livre d’Asimov I, Robot (mettant en vedette le Prince frais et la petite maman de Tom Brady) le dit le mieux: «Les règles étaient faites pour être enfreintes.»

Par exemple, dans un des histoires d’Asimov, les robots sont faits pour suivre les lois, mais on leur donne une certaine signification du terme «humain». Préfigurant ce qui se passe actuellement dans les campagnes de nettoyage ethnique dans le monde réel, les robots ne reconnaissent que les personnes d’un certain groupe comme «humaines». Ils suivent les lois, mais continuent de commettre des génocides.

Le deuxième problème est qu’aucune technologie ne peut encore reproduire les lois d’Asimov à l’intérieur d’une machine. Comme Rodney Brooks de la société iRobot – du nom du livre d’Asimov, ils sont les gens qui vous ont apporté le robot militaire Packbot et le robot aspirateur Roomba – disent: «Les gens me demandent si nos robots respectent les lois d’Asimov. Il y a une raison simple: je ne peux pas y intégrer les lois d’Asimov. »

Le robotique Daniel Wilson était un peu plus fleuri. « Les règles d’Asimov sont chouettes, mais elles sont aussi des conneries. Par exemple, elles sont en anglais. Comment diable programmez-vous cela? »

La raison la plus importante pour laquelle les lois d’Asimov ne sont pas encore appliquées est la façon dont les robots sont utilisés dans notre monde réel. Vous n’armez pas un drone Reaper avec un missile Hellfire ou ne placez pas une mitrailleuse sur un MAARS (système robotique armé avancé modulaire) pour ne pas faire de mal aux humains.

Il en va de même pour la construction d’un robot qui prend l’ordre de n’importe quel humain. Est-ce que je veux vraiment qu’Oussama Ben Laden puisse commander à propos de mon robot? Et enfin, le fait que les robots peuvent être envoyés sur dangereux les missions à «tuer» est souvent la raison même de leur utilisation. Leur donner un sentiment d ‘«existence» et un instinct de survie irait à l’encontre de cette logique et ouvrirait des scénarios potentiels à partir d’une autre série de science-fiction, les films Terminator. Le fait ici est qu’une grande partie du financement de la recherche robotique provient du militaire, qui paie pour des robots qui suivent exactement le contraire des lois d’Asimov. Elle veut explicitement des robots qui peuvent tuer, ne prennent pas les ordres de n’importe quel humain et ne se soucient pas de leur propre existence.

Une question d’éthique
Le plus gros problème, cependant, quand il s’agit de robots et d’éthique n’est pas de savoir si nous pouvons utiliser quelque chose comme les lois d’Asimov pour fabriquer des machines qui sont morales (ce qui peut être une contradiction inhérente, étant donné que la moralité s’emboîte) à la fois l’intention et l’action, pas une simple programmation).

Nous devons plutôt commencer à lutter contre l’éthique des personnes derrière les machines. Où est le code d’éthique dans le domaine de la robotique pour ce qui est construit et quoi Vers quoi un jeune robotique se tournerait-il à? Qui peut utiliser ces systèmes sophistiqués et qui ne le fait pas? Un drone Predator est-il une technologie qui devrait être limitée à l’armée? Eh bien, trop tard, le département de la sécurité intérieure fait déjà voler six drones Predator chargés de la sécurité aux frontières. De même, de nombreux services de police locaux envisagent d’acheter leurs propres drones pour se garer au-dessus des quartiers criminels. Je pense peut-être que cela a du sens, jusqu’à ce que le drone surveille mon quartier. Mais qu’en est-il de moi? Est-ce que mon deuxième amendement a le droit d’avoir un robot qui porte des armes?

Tout cela ressemble un peu au genre de questions qui ne seraient posées que lors de conventions de science-fiction. Mais c’est mon point. Lorsque nous parlons de robots maintenant, nous ne parlons plus de «pure science-fiction» comme l’a décrit un analyste du Pentagone à propos de ces technologies. Ils font vraiment partie de notre monde réel.

Imprimer

Leave a Reply

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *