Las leyes de la robótica de Isaac Asimov son incorrectas

Cuando la gente habla de robots y ética, siempre parece mencionar las «Tres leyes de la robótica» de Isaac Asimov. Pero hay tres problemas principales con estas leyes y su uso en nuestro mundo real.

Las leyes
las leyes de Asimov inicialmente implicaban tres pautas para las máquinas:

  • Ley uno – «Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño».
  • Ley Dos – «Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando las órdenes entrarían en conflicto con la Primera Ley ”.
  • Ley Tres -» Un robot debe proteger su propia existencia, siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley «.
  • Asimov luego agregó la «Ley Cero», por encima de todas las demás: «Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño».

The Debunk
¡El primer problema es que las leyes son ficción! Son un dispositivo de trama que Asimov inventó para ayudar a impulsar sus historias. Aún más, sus historias casi siempre giraban en torno a cómo los robots podrían seguir estos códigos éticos lógicos y que suenan geniales, pero aún así se desvían y las consecuencias no deseadas que resultan. Un anuncio de la adaptación cinematográfica de 2004 del famoso libro de Asimov I, Robot (protagonizado por Fresh Prince y la mamá bebé de Tom Brady) lo expresó mejor: «Las reglas fueron hechas para romperse».

Por ejemplo, en uno De las historias de Asimov, los robots están hechos para seguir las leyes, pero se les da un cierto significado de «humano». Prefigurando lo que ahora sucede en las campañas de limpieza étnica del mundo real, los robots solo reconocen a las personas de un determinado grupo como «humanos». Siguen las leyes, pero aún llevan a cabo el genocidio.

El segundo problema es que ninguna tecnología puede reproducir aún las leyes de Asimov dentro de una máquina. Como Rodney Brooks de la empresa iRobot, que lleva el nombre del libro de Asimov, son la gente que le trajo el robot militar Packbot y el robot aspirador Roomba, dice: «La gente me pregunta si nuestros robots siguen las leyes de Asimov. Hay una razón simple: no puedo construir las leyes de Asimov en ellos «.

El roboticista Daniel Wilson era un poco más florido. «Las reglas de Asimov son claras, pero también son una mierda. Por ejemplo, están en inglés. ¿Cómo diablos se programa eso?»

La razón más importante por la que las leyes de Asimov no se aplican todavía es cómo los robots se están utilizando en nuestro mundo real. No se arma un dron Reaper con un misil Hellfire o se coloca una ametralladora en un MAARS (Sistema Robótico Avanzado Modular Armado) para no causar daño a los humanos. ¡Ese es el punto!

Lo mismo ocurre con la construcción de un robot que toma el orden de cualquier humano. ¿Realmente quiero que Osama Bin Laden pueda ordenar sobre mi robot? Y finalmente, el hecho de que los robots pueden ser enviados a lugares peligrosos. misiones para ser «asesinados» es a menudo la razón fundamental para usarlas. Darles un sentido de «existencia» e instinto de supervivencia iría en contra de esa lógica, y también abriría escenarios potenciales de otra serie de ciencia ficción, las películas de Terminator. El punto aquí es que gran parte de la financiación para la investigación robótica proviene de Military, que está pagando por robots que sigan todo lo contrario a las leyes de Asimov. Quiere explícitamente robots que puedan matar, que no reciban órdenes de cualquier humano y que no se preocupen por su propia existencia.

Una cuestión de ética
Sin embargo, cuando se trata de robots y ética, el problema más importante no es si podemos usar algo como las leyes de Asimov para fabricar máquinas que sean morales (lo que puede ser una contradicción inherente, dado que la moralidad intención y acción, no mera programación).

Más bien, tenemos que empezar a luchar con la ética de las personas detrás de las máquinas. ¿Dónde está el código de ética en el campo de la robótica para lo que se construye y lo que ¿A qué se volverían los jóvenes roboticistas? ¿a? ¿Quién puede utilizar estos sofisticados sistemas y quién no? ¿Es un dron Predator una tecnología que debería limitarse a los militares? Bueno, demasiado tarde, el Departamento de Seguridad Nacional ya está volando seis drones Predator para la seguridad fronteriza. Del mismo modo, muchos departamentos de policía locales están explorando la compra de sus propios drones para estacionar en los vecindarios del crimen. Puede que piense que tiene sentido, hasta que el dron esté vigilando mi vecindario. Pero que hay de mi ¿Está dentro de mi derecho de la Segunda Enmienda tener un robot que lleve brazos?

Todo esto suena un poco como el tipo de preguntas que solo se plantearían en las convenciones de ciencia ficción. Pero ese es mi punto. Cuando hablamos de robots ahora, ya no estamos hablando de «mera ciencia ficción» como describió un analista del Pentágono de estas tecnologías. Son una parte muy importante de nuestro mundo real.

Imprimir

Leave a Reply

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *