martes, 14 de octubre de 2014

YO, (killer-) ROBOT



El próximo 20 de octubre, en Nueva York, Naciones Unidas (ONU) organiza un encuentro con representantes de distintos países y miembros de ONGs con un objetivo cada vez más preocupante a la vez que asombroso, detener el desarrollo y producción de killer-robots.


La literatura y el cine han propuesto distintas distopías en las que máquinas con desarrollada inteligencia artificial ponían en jaque y hasta sometían a la propia humanidad. Desde el musculoso “Terminator” creado para asesinar humanos, pasando por la “Matrix” generada por las máquinas para esclavizarnos, incluso refinadas versiones como la propuesta por Arthur C. Clarke en “2001, Odisea Espacial”, los humanos descubren con horror como las máquinas, computadoras y robots se vuelven contra la humanidad con sed de venganza o dominio. Debemos desconfiar de nuestra tostadora eléctrica?
Los killer-robots son definidos como armas completamente autónomas, sistemas que pueden elegir y atacar blancos sin la intervención o decisión importante de ningún ser humano. Hoy los famosos drones del ejército norteamericano desempeñan funciones tácticas militares atacando y destruyendo blancos. Se trata de pequeños vehículos aéreos no tripulados que son enviados a cumplir estas misiones. Cuentan con una inteligencia artificial que les permite el desplazamiento, la ubicación del blanco y la ejecución del mismo mediante el disparo de las armas con las que se los equipa. Hoy, al menos, la decisión y control del drone pertenece a un operario militar humano, sin embargo la tecnología para dotar a tales armas de un sistema de toma d decisiones autónomas ya es prácticamente posible. Las implicancias de consentir que se permita a una máquina la posibilidad de tomar la decisión de cuándo mata y a quién en un campo de batalla es muy grave, e implica consecuencias en distintas áreas, así lo indica Steve Goose, director de la División Armas de Human Rights Watch: “el control humano de la guerra robótica es esencial para minimizar los daños y muertes a civiles”
En su aspecto militar, cómo podrá distinguir un killer-robot, es decir, un arma con capacidad de decisión autónoma, si se trata de blanco civil o militar? Si el blanco elegido ha depuesto su capacidad combativa, si media proporcionalidad entre el ataque y la respuesta elegida por el sistema autónoma decisorio del arma-robot? Cuál es la cadena de mando bajo la que se inserta? Cuáles son las reglas del combate (rules of engagement) de acuerdo a las circunstancias? Cuántas las bajas suficientes, cuál el poder ofensivo razonable a desplegar?
Estas preguntas sobrepasan el campo militar para adentrarnos en el derecho de guerra, el derecho humanitario y los derechos humanos; podrán sus decisiones tener en cuenta el respeto a dicha normativa?
Y ya nos pasamos a un campo más profundo como la ética. Teniendo capacidad de decisión autónoma (es decir, no depende de nadie más que de si mismo para tomar decisiones), cuando hablamos de un killer-robot, se trata de un agente moralmente responsable de las consecuencias? Puede un robot ser culpable? Puede su decisión independiente contemplar las implicancias que estén más allá de un cálculo de eficacia o eficiencia? Supongamos que un drone ofensivo se encuentra ante un niño-soldado, podrá distinguir la situación antes de ejecutar su decisión de tomar su vida? Si una línea de suministros abastece no solo a soldados enemigos sino también a civiles no beligerantes y que dependen de la misma para su supervivencia, considerará la situación o solo decidirá de acuerdo a criterios militares? Podrá tal tecnología discriminar el poder de la respuesta entre neutralizar a un combatiente enemigo y eliminarlo?
Será entonces tal robot responsable de sus actos, puesto que es su sistema autónomo quien decidió? No implicaría el considerarlo agente moral, considerarlo definitivamente Persona? En 1940 el genial Isaac Asimov, diseñó las tres leyes de la robótica, cuestión clave para entender películas como “Yo, Robot”, “Robocop” y la producción literaria y cinematográfica ciencia ficción que gira en torno al tema. El enunciado de Asimov prescribe: Primera Ley: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entraran en conflicto con la primera ley. Tercera Ley: Un robot debe proteger su propia existencia en la medida en que ésta protección no entre en conflicto con la primera ley o la segunda ley. Asimov intuía un grave conflicto y trató de colocar un límite, siempre, en la ficción.
Ahora bien, la película “Yo, Robot” (basada en un cuento de Asimov) pone a un robot ante un dilema ético, cuando debe optar por salvar la vida de un adulto o la vida de una niña, optando el robot por salvar al adulto ya que en términos lógicos-porcentuales, éste tenía mejores posibilidades de sobrevivir, sin tener en cuenta que cualquier ser humano hubiera tomado como principal argumento a la hora de decidir que los niños son primer objeto de protección, más allá de los porcentajes racionales. Y si se trata de un anciano  o una mujer embarazada? Volviendo a los drones, cómo podría un arma de decisión autónoma considerar estas variables? Podrá un robot cuestionar una operación a la que es enviado si su cumplimiento implicaría una objeción de conciencia? Producidos en masa, podría implicar que ciertas naciones tengan verdaderos ejércitos de drones y robots soldados con capacidad de matar seres humanos? Puede tal ejército ser moralmente aceptable? Puede tal ejército volverse contra su creador?
El Profesor Noel Sharkey, especialista en robótica, miembro y co-fundador de la ONG en contra del desarrollo y producción de killer-robots y director del Comité para el control de armas-robot aclara: “los sistemas de armas autónomas no pueden garantizar un predecible cumplimiento de las leyes internaciones, las naciones no están hablando al respecto lo que pone a la humanidad frente a un gran riesgo”.
En “Yo, Robot” o “Bicentennial Man” (también basada en “The Positronic man” de Asimov) los robots en cuestión desean “humanizarse” en la ficción, pero el paso de la ficción a la realidad ha resultado ser mucho más complejo.
El desarrollo y la implementación de tal tecnología debe ser discutido y prohibido antes de que sea demasiado tarde. El 20 de octubre, la ONU debatirá la cuestión.


Para más información: www.stopkillerrobots.org