martes, 1 de enero de 2013

Leyes de la Robótica


Propósito

Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento. Por ejemplo saber en determinada situación si una persona está corriendo peligro o no, y deducir cuál es la fuente del daño.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".
Asimov crea un universo en el que los robots son parte fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un papel determinante durante diez mil años más. Es lógico pensar que el nivel de desarrollo de los robots variaría con el tiempo, incrementándose su nivel de complejidad cada vez más. Según Asimov, un robot no razona, es lógico

Historia de las tres leyes de la robótica

Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo, Robot) eran modelos poco avanzados. Era una época en donde la robopsicología no estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley.
Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de "daño" según sus experiencias, y determinar niveles de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot puede llegar a dañar a un ser humano por proteger a otro que considere de más valía, en particular su amo. También podría darse el caso de que un robot dañara físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que podrían llevar a los robots a tales situaciones.

Ley Cero

En 1985, Asimov publicó un relato en la que uno de sus robot se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la Ley Definitiva, la llamada Ley Cero, superior a todas las demás: "Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños". Quedando así modificada la primera ley: "Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero".

1. Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

EPSRC / AHRC principios de la robótica

En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (Engineering and Physical Sciences Research Council, EPSRC por sus siglas en inglés) y el Consejo de Investigación de Artes y Humanidades (Arts and Humanities Research Council, AHRC por sus siglas en inglés) de Gran Bretaña publicaron conjuntamente un conjunto de cinco principios éticos "para los diseñadores, constructores y los usuarios de los robots en el mundo real, junto con siete mensajes de alto nivel", destinado a ser transmitido, sobre la base de un taller de investigación en septiembre de 2010.2
1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
2. Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
4. Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
5. Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Los mensajes destinados a ser transmitidos fueron:
1. Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
2. La mala práctica nos perjudica a todos.
3. Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
4. Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
5. Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
6. Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
7. Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

No hay comentarios:

Publicar un comentario