¿Son correctas las 3 leyes de la robótica escritas por Asimov?

Cuando la gente habla de robots y ética, siempre aparecen las tres leyes de la robótica de Isaac Asimov. Pero, existen 3 problemas principales con estas leyes y su uso en nuestro mundo real.

¿Cuándo y dónde aparece por primera vez la palabra robots?

Las 3 Leyes de la Robótica de Isaac Asimov:

  • Primera ley: “Un robot no puede dañar a un ser humano o por inacción, permitir que un ser humano sufra daño”.
  • Segunda ley: “Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley”.
  • Tercera Ley: “Un robot debe proteger su propia existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley”.

10 Mejores robots amigos que aparecen en películas (incluido Jeff de Finch)

Más tarde, Asimov agregaría la “ley cero” que estaría por encima de todos, que diría algo así:

Revisión de las Leyes de Asimov

El primer problema de las leyes de Asimov, es el que esas leyes son una absoluta ficción. Las leyes fueron creadas bajo el punto de vista de construir una trama que Asimov inventó para ayudar a impulsar sus historias.

De hecho, sus cuentos, casi siempre giraban alrededor de cómo los robots pueden seguir estos códigos éticos lógicos que suenan geniales, pero aún así se desvían de la realidad y las consecuencias no deseadas que resultarían de ellos.

En un anuncio de la adaptación cinematográfica de 2004 del famoso libro de Asimov: Yo, robot (protagonizada por Fresh Prince y la mamá de Tom Brady) se expresa exactamente: “Las reglas se hicieron para romperlas”.

Conoce a CyberOne: El primer Robot Humanoide de Xiaomi

Por ejemplo, en una de las historias de Asimov, los robots están hechos para seguir las leyes pero se les da un cierto significado de “humanos”. Prefigurando lo que sucede ahora en las campañas de limpieza étnica del mundo real, los robots solo reconocen a las personas de un determinado grupo como humanas.

Siguen las leyes, pero aun así llevan a cabo el genocidio.

26 Libros y sagas recomendados por Elon Musk que deberías leer

El segundo problema es que ninguna tecnología puede aún replicar las leyes de Asimov dentro de una máquina. Como dice Rodney Brooks, de la empresa iRobot, llamada así por el libro de Asimov.

Los creadores de el robot militar Packbot y el robot aspiradora Roomba: “La gente me pregunta si nuestros robots siguen las leyes de Asimov. Hay una razón simple de porque que no lo hacen: No puedo construir las leyes de Asimov en ellos”.

Samsung planea Crear un Robot Humano en 2023

El robótico Daniel Wilson fue un poco más claro: “Las reglas de Asimov son claras, pero también son una mierda. Por ejemplo, están en inglés ¿Cómo diablos programas eso?”

La razón más importante por la que las Leyes de Asimov aún no se aplican es cómo se utilizan los robots en nuestro mundo real. Nadie arma un dron Reaper con un misil Hellfire, ni coloca una ametralladora en un MAARS (sistema robótico armado modular avanzado) para no causar daño a los humanos, ¡Este es el punto!

Lo mismo ocurre con la construcción de un robot que recibe órdenes de cualquier ser humano, ¿Realmente quieres que Osama Bin Laden pueda ordenar sobre mi robot?

Y finalmente, el hecho de que los robots puedan ser enviados a misiones peligrosas para ser “matados” es a menudo la razón fundamental para usarlos. El darles una sensación de existencia e instinto de supervivencia iría en contra de esa lógica, además de abrir posibles escenarios de otra serie de ciencia ficción, como las películas de Terminator.

La cuestión aquí es, que gran parte de la financiación para la investigación robótica proviene de los militares que en todos los casos, pagan por robots que siguen exactamente lo contrario de las leyes de Asimov.

Los militares quieren explícitamente robots que puedan matar, que no acepten órdenes de cualquier humano y que no se preocupen por su propia existencia.

Una cuestión de ética robótica

Sin embargo, el problema más importante cuando se trata de robots y ética no es si podemos usar algo como las Leyes de Asimov para lograr que las máquinas sean morales (lo que puede ser una contradicción inherente, dado que la moralidad envuelve tanto la intención como la acción) no solamente programación.

Más bien, debemos comenzar a luchar con la ética de las personas detrás de las máquinas, ¿Dónde está el código de ética en el campo de la robótica para lo que se construye y lo que no? ¿A qué recurrirían los jóvenes robots? ¿Quién llega a utilizar estos sofisticados sistemas y quién no? ¿Es un dron Predator una tecnología que debería limitarse a los militares?

Bueno, seguramente ya es demasiado tarde para pararse a revisar estos puntos de vista, puesto que el Departamento de Seguridad Nacional de EE.UU. ya está volando seis drones Predator para realizar la seguridad fronteriza.

Asimismo, muchos departamentos de policía locales están explorando la compra de sus propios drones para ayudarles a vigilar sobre los barrios más peligrosos.

Puedo pensar que quizás eso tenga sentido, incluso que un dron este vigilando mi vecindario. Pero, ¿Está dentro de mi derecho el tener un robot que tenga brazos?

Todo esto suena un poco como el tipo de preguntas que solo se plantearían en convenciones de ciencia ficción, pero este es mi punto de vista.

Cuando hablamos de robots en la actualidad, ya no estamos hablando de mera ciencia ficción como describió un analista del Pentágono sobre estas tecnologías.

Ahora mismo, todas estas tecnologías, ya son una parte muy importante de nuestro mundo real.

Relacionados
Salir de la versión móvil