domingo, 15 de febrero de 2009

Leyes de la Robótica

El desarrollo en la tecnología, donde se incluyen las poderosas computadoras electrónicas, los actuadores de control retroalimentados, la transmisión de potencia a través de engranes, y la tecnología en sensores, han contribuido a flexibilizar los mecanismos autómatas para desempeñar varias tareas dentro de la industria. Son varios los factores que intervienen para que se desarrollaran los primeros robots en la década de los años 1950. La investigación en inteligencia artificial desarrolló maneras de emular el procesamiento de información humana con computadoras electrónicas e inventó una variedad de mecanismos para probar sus teorías.

No obstante las limitaciones de las máquinas robóticas actuales, el concepto popular de un robot es que tiene una apariencia humana y que actúa como tal. Este concepto humanoide ha sido inspirado y estimulado por varias narraciones de ciencia ficción. Una obra checoslovaca publicada en 1917 por Karel Kapek, denominada “Rossum’s Universal Robots”, dio lugar al término robot. La palabra checa “Robota” significa servidumbre o trabajador forzado, y cuando se tradujo al idioma ingles se convirtió en el término robot. Dicha narración se refiere a un brillante científico llamado Rossum y a su hijo, quienes desarrollan una sustancia química que es similar al protoplasma. Utilizan ésta sustancia para fabricar robots, y sus planes consisten en que los robots sirvan a la clase humana de forma obediente para realizar todos los trabajos físicos. Rossum sigue realizando mejoras en el diseño de los robots, elimina órganos y otros elementos innecesarios, y finalmente desarrolla un “ser perfecto”. El argumento experimenta un giro desagradable cuando los robots perfectos se rebelan contra sus dueños, destruyendo toda la vida humana.

Entre los escritores de ciencia ficción, Isaac Asimov contribuyó con varias narraciones relativas a robots, comenzando el año 1939, a él se atribuye el acuñamiento del término Robótica. La imagen de robot que aparece en su obra es el de una máquina bien diseñada y con una seguridad garantizada que actúa de acuerdo con tres principios. Estos principios fueron denominados por Asimov las “tres leyes de la robótica”, y son: (1) Un robot no puede actuar contra un ser humano o, mediante la inacción, que un ser humano sufra daños. (2) Un robot debe obedecer las órdenes dadas por los seres humanos, salvo que estén en conflictos con la primera ley. (3) Un robot debe proteger su propia existencia, a no ser que esté en conflicto con las dos primeras leyes.

Las tres leyes de la robótica aparecen formuladas por primera vez en 1942 en el relato “el círculo vicioso” de Asimov. El autor busca situaciones contradictorias en las que la aplicación objetiva de las tres leyes se pone en tela de juicio planteando a la vez interesantes dilemas filosóficos y morales. En 1985, Asimov publicó un relato en la que uno de sus robots se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la ley definitiva, la llamada Ley Cero, superior a todas las demás: “Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños”. Quedando así modificada la primera ley: “Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero”.

En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son “formulaciones matemáticas impresas en los senderos positrónicos del cerebro” de los robots, lo que hoy en el mundo de las computadoras se denomina “memoria empotrada”. Esta redacción de las leyes es la forma convencional en la que los humanos de las historias las enuncian; su forma real sería la de una serie de instrucciones equivalentes y mucho más complejas en el cerebro del robot. Asimov atribuye las tres Leyes a John W. Campbell, que las habría redactado durante una conversación sostenida el 23 de diciembre de 1940. Sin embargo, Campbell sostiene que Asimov ya las tenía pensadas, y que simplemente las expresaron entre los dos de una manera más formal. Las tres leyes aparecen en un gran número de historias de Asimov, especialmente en toda su serie de los robots, así como en varias historias relacionadas.

Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto “complejo de Frankenstein”, es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y de manera consiguiente el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento oportuno. Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot “dañe” a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, se podría responder a las anteriores preguntas con un “sí”. Asimov crea un universo en el que los robots son parte fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un papel determinante por diez mil años más.

Los primeros robots construidos en la Tierra eran modelos poco avanzados. Era una época en donde la robopsicología no estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley. Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de “daño” según sus experiencias, y determinar los grados de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot puede llegar a dañar a un ser humano por proteger a otro que considere de más valía. También podría darse el caso de que un robot dañe físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que podrían llevar a los robots a tales situaciones.

Los usos de los robots han ido extendiéndose con el paso del tiempo. Desde inmensas plantas industriales hasta la exploración del espacio profundo, la ciencia ha impuesto nuevos límites para el desarrollo de sus capacidades. El proletariado, por ejemplo, fue el motor de uno de los cambios sociales más importantes del siglo veinte, principalmente debido a la importancia de su fuerza colectiva y por ser el verdadero motor de los medios de producción burgueses. Entonces, cuando las máquinas dominen áreas que hasta ahora eran indómitas para el hombre, ¿tendrán derecho a reclamar?, mediante un imaginario denominado “movimientos sociales robóticos”. Si esto ocurriera, los robots adquirirían ciertas responsabilidades tales como el deber de votar, de pagar impuestos, etc.

Pero en caso de tener derechos, también deberían tener obligaciones; e incluso, ser penados por la Ley en caso de cometer delitos. Esto trae, para finalizar la historia de Kenji Urada, un operario japonés de 37 años que tuvo el triste honor de ser la primera persona en ser asesinada por un robot. El hecho ocurrió en 1981 en una planta de Kawasaki. En su defensa, en el futuro, los robots podrían decir que el hombre no cumplió con las normas de seguridad. Mas allá de lo fantasioso o no que suene, ojala para cuando los robots tengan derechos, los humanos puedan hacer valer sus derechos primero, esos largamente ignorados y violados por los constantes desequilibrios e injusticias del mundo.


Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 13 de 2008

No hay comentarios: