Las leyes de la robótica

Isaac Asimov

Isaac Asimov, el padre de las leyes de la robótica

En 1942 se publicó el relato corto “Círculo Vicioso” (“Runaround” era su título original) de Isaac Asimov, el conocidísimo escritor, mayormente -aunque no exclusivamente- de ciencia ficción, de origen ruso que podría estar en el Libro Guinness de los récords sin demasiados problemas ya que escribió un total de más de 500 obras a lo largo de su existencia (aunque no viene a cuento, puedes saber quien sí está en el famoso libro-recopilatorio y alucinar un poco con la cantidad de libros que escribió).

En el relato presentaba por primera vez las leyes que según él deberían implementarse en todos los robots, es decir, las normas básicas de conducta programadas en un robot con el fin de que no se rebelara contra, ni dañara a, su creador, el ser humano, como sucediera con el monstruo creado por Victor Frankenstein.

El robot, con esas instrucciones en su ROM, estaba programado para cumplirlas a rajatabla y en caso de no obedecerlas podría llegar a colapsar quedando sólo apto para chatarra (o sea, moriría) o bien acabaría siendo un fugitivo de la ley. Uno de los problemas que se podía dar es que el robot no supiera entender o interpretar las leyes lo suficientemente bien como para saber claramente cuando una persona corre peligro o no, cual es el origen de dicho peligro o incluso diferenciar y elegir entre un mal menor y uno mayor. En realidad – salvando las distancias- lo mismo que nos podría pasar a nosotros si nos dieran 3 únicas normas, de esta magnitud e importancia, que debiéramos obedecer (de un modo u otro ya las tenemos).

Y de hecho en muchas de las obras de Asimov se plantea esto precisamente, situaciones en las que un robot puede llegar a violar alguna de estas leyes, si se puede producir una situación en la que no le quede otra opción que desobedecerlas, quizás voluntariamente o bien debido a que la situación genera un conflicto difícil de resolver para un no humano.

Las 3 famosas leyes de la robótica de Asimov son:

1. Un robot no debe dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño alguno.

2. Un robot debe obedecer las órdenes que le son dadas por los seres humanos, excepto cuando estas órdenes se oponen a la Primera Ley.

3. Un robot debe proteger su propia existencia hasta donde esta protección no entre en conflicto con la Primera Ley o la Segunda.

Posteriormente, en la novela “Robots e Imperio” de 1985, Asimov haría que uno de sus protagonistas, un robot muy avanzado de nombre R. Daneel Olivaw, después de una discusión con un humano, concluyera y pronunciara lo que se conoce como la Ley Cero, una supraley, por así decirlo, a la cual están subordinadas las 3 leyes básicas y que reza así:

Un robot no puede causar daño a la humanidad o, por inacción, permitir que la humanidad sufra daño.

Esta ley también plantea preguntas.  ¿Cómo definir qué es  “la humanidad” o qué supone, y qué no, un daño para la humanidad? Son detalles que pudieran parecer tonterías si no fuera porque se trata de indicarle exactamente a un robot qué puede hacer y qué no (y más si  nos va la vida en ello), que aquí se resume en una frase pero que conlleva infinitas posibilidades.

Siguiendo con la ficción, ya que como hemos dicho estas leyes proceden de libros de ciencia ficción, aunque veremos que de un modo u otro se acaban integrando en “nuestro mundo”, a partir de 1993 Roger MacBride Allen, en estrecha colaboración con Asimov, publicaría la saga “Caliban”, formada por los libros “Caliban”, “Inferno” y “Utopía”, entretenida historia futurista en la que se realiza una profunda revisión de las 3 leyes originales de la robótica dando como resultado Las Nuevas Leyes de la Robótica, que esta vez serían 4:

1. Un robot no debe dañar a un ser humano.

2. Un robot debe cooperar con los seres humanos, excepto cuando dicha cooperación atente contra la Primera Ley.

3. Un robot debe proteger su propia existencia, mientras dicha protección no atente contra de la Primera Ley.

4. Un robot puede hacer lo que le plazca, excepto cuando sus actos infrinjan las leyes Primera, Segunda o Tercera.

Robot y mujer

Tanta ley y se olvidaron de la más importante: un robot no se podrá acostar con la mujer de su creador ni con cualquier otra, ¡oiga! (imagen de Franz Steiner)

En este caso, aunque la base es la misma de las 3 leyes originales, se le da un poco de libertad al robot y se le humaniza otro tanto: ya no debe obedecer las órdenes de los hombres sino cooperar con ellos y, además, puede tener su propia “vida” mientras respete las otras leyes.

Ya de vuelta al mundo real, o como mínimo a tiempos más recientes (recuerda, vivimos en Matrix), en 2009 los ingenieros David Woods, de la Universidad Estatal de Ohio, y Robin Murphy, de la Universidad de Texas A&M, propusieron unas nuevas leyes, paralelas a las de Asimov, en la revista IEEE Intelligent Systems donde se centran en las interacciones entre humanos y robots, algo quizás más acorde con la realidad, tratando de atacar algunas de las lagunas que se puedan dar en las leyes básicas y evitar así que se pueda “romper” alguna ley.

Además se realizaron sobre la idea de que las de Asimov estaban pensadas para unos robots muy avanzados, que ni de lejos hemos empezado a vislumbrar, debido seguramente a que ni siquiera sabemos del todo cómo funcionamos nosotros mismos, cómo funciona nuestro cerebro, siendo estas nuevas leyes más realistas en cuanto a lo que podemos esperar en un futuro más cercano que lejano:

1. Un humano no puede emplear un robot sin conocer las normas legales y profesionales de seguridad y ética del sistema de funcionamiento humano-robot.

2. Un robot debe responder a los seres humanos de manera apropiada a sus funciones.

3. Un robot debe estar dotado de suficiente autonomía para proteger su propia existencia siempre y cuando dicha protección proporcione una transferencia del control sin problemas que no entre en conflicto con las leyes anteriores.

En este caso se asume que los humanos usan robots, que éstos están limitados debido a su propia naturaleza no humana, que debemos ser conscientes de dicha limitación y actuar acorde con éstas y que, por lo tanto, los robots deben estar preparados para saber cuando ceder su control a los humanos.

En 2011, y de la mano del Consejo de Investigación de Ingeniería y Ciencias Físicas y el Consejo de Investigación de Artes y Humanidades de Gran Bretaña, se publicarían 5 principios éticos, siguiendo también la línea de las originales leyes de Asimov, que consideran que todo diseñador/creador de robots debe respetar y tener tan interiorizadas como lo haría un robot de las novelas de Asimov con las 3 famosas leyes incrustadas en su “cerebro”:

1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.

2. Los seres humanos , no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.

3. Los robots deben ser diseñadas de forma que aseguren su protección y seguridad.

4. Los robots son objetos, no deben ser diseñado para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.

5. Siempre debe ser posible para averiguar quién es legalmente responsable de un robot.

Son una buena noticia, la verdad, ya que hasta ahora sólo se había pensado principalmente en los propios robots y no en sus creadores, nosotros, los humanos y los no tan humanos, lo cual no es baladí.

Puede llegar un momento en que haya robots capaces de crear otros robots. Entiendo que en ese punto no tendrían por qué ser especialmente inteligentes y, por lo tanto, no tendrían por qué tener la necesidad de poder razonar. Podrían ser meros autómatas y, en todo caso, si tuvieran un plus de inteligencia, de autonomía, su razonamiento vendría dado por el de los que los han programado. ¿Y quién los ha programado? Nosotros, de nuevo.

Teniendo en cuenta que el ser humano puede albergar más maldad que la propia caja de Pandora, más inutilidad que la que pueda tener un mechero (encendedor, por si no eres de por aquí) normal y corriente bajo el agua y tanta imperfección como sólo los humanos somos capaces de acumular, ¿hasta qué punto podríamos fiarnos al 100% de algo creado por nosotros con el currículo que arrastramos desde el inicio de nuestra existencia y si entre nosotros mismos no somos capaces de confiar plenamente?

¿Podemos esperar algo bueno del hombre, el creador de robots, que tanto mal ha hecho a lo largo de la historia y tan poco por acercarse a un verdadero “mundo feliz” (no el de Aldous Huxley precisamente) lleno de paz y prosperidad? ¿No son al fin y al cabo los robots un fiel reflejo -aunque quizás limitado- de sus creadores, nosotros, con sus mismas debilidades, restricciones, defectos y puntos oscuros? ¿No hemos creado montones de robots -o máquinas- hechos exclusivamente con el fin de matar? ¿No se están desarrollando ya robots cuya meta es destruir, cuanto más rápido mejor, al enemigo en el campo de batalla en vez de dedicar esos robots, o al menos la energía, tiempo y dinero empleados para crearlos, para acabar con tanta mierda que viene asfixiándonos hasta cotas apestosas?

Bueno… no nos pongamos catastrofistas ni pesimistas, que en la villa del Señor hay de todo. Ni todos somos santos ni todos demonios, así que no nos queda otra que cruzar los dedos esperar a ver qué nos depara el futuro en cuanto a robótica se refiere; seguramente acabará siendo algo fascinante (aunque no tengo claro que lleguemos a disfrutarlo…). De todos modos tengo la sensación que cuanto menos se parezcan los robots del futuro a nosotros, mejor 🙂

Si no te has cansado de ver leyes robóticas, lo cual es poco probable, puedes consultar en la Wikipedia (en inglés), por ejemplo, donde se encuentran más leyes y modificaciones de las existentes.

Fuentes: Wikipedia, la trilogía Caliban, Noticias21.com, ResearchNews (inglés)

Anuncios

Publicado el 08/06/2012 en Cápsulas Hoi Poi. Añade a favoritos el enlace permanente. Deja un comentario.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: