El próximo 20 de
octubre, en Nueva York, Naciones Unidas (ONU) organiza un encuentro con
representantes de distintos países y miembros de ONGs con un objetivo cada vez
más preocupante a la vez que asombroso, detener el desarrollo y producción de killer-robots.
La literatura y
el cine han propuesto distintas distopías en las que máquinas con desarrollada
inteligencia artificial ponían en jaque y hasta sometían a la propia humanidad.
Desde el musculoso “Terminator” creado para asesinar humanos, pasando por la
“Matrix” generada por las máquinas para esclavizarnos, incluso refinadas
versiones como la propuesta por Arthur C. Clarke en “2001, Odisea Espacial”,
los humanos descubren con horror como las máquinas, computadoras y robots se
vuelven contra la humanidad con sed de venganza o dominio. Debemos desconfiar
de nuestra tostadora eléctrica?
Los killer-robots
son definidos como armas completamente autónomas, sistemas que pueden elegir y
atacar blancos sin la intervención o decisión importante de ningún ser humano.
Hoy los famosos drones del ejército norteamericano desempeñan funciones
tácticas militares atacando y destruyendo blancos. Se trata de pequeños vehículos
aéreos no tripulados que son enviados a cumplir estas misiones. Cuentan con una
inteligencia artificial que les permite el desplazamiento, la ubicación del
blanco y la ejecución del mismo mediante el disparo de las armas con las que se
los equipa. Hoy, al menos, la decisión y control del drone pertenece a un operario
militar humano, sin embargo la tecnología para dotar a tales armas de un
sistema de toma d decisiones autónomas ya es prácticamente posible. Las
implicancias de consentir que se permita a una máquina la posibilidad de
tomar la decisión de cuándo mata y a quién en un campo de batalla es muy grave,
e implica consecuencias en distintas áreas, así lo indica Steve Goose, director
de la División Armas de Human Rights Watch: “el control humano de la guerra
robótica es esencial para minimizar los daños y muertes a civiles”
En su aspecto militar,
cómo podrá distinguir un killer-robot, es decir, un arma con capacidad de
decisión autónoma, si se trata de blanco civil o militar? Si el blanco elegido
ha depuesto su capacidad combativa, si media proporcionalidad entre el ataque y
la respuesta elegida por el sistema autónoma decisorio del arma-robot? Cuál es
la cadena de mando bajo la que se inserta? Cuáles son las reglas del combate
(rules of engagement) de acuerdo a las circunstancias? Cuántas las bajas
suficientes, cuál el poder ofensivo razonable a desplegar?
Estas preguntas
sobrepasan el campo militar para adentrarnos en el derecho de guerra, el
derecho humanitario y los derechos humanos; podrán sus decisiones tener en
cuenta el respeto a dicha normativa?
Y ya nos pasamos a
un campo más profundo como la ética. Teniendo capacidad de decisión autónoma
(es decir, no depende de nadie más que de si mismo para tomar decisiones),
cuando hablamos de un killer-robot, se trata de un agente moralmente
responsable de las consecuencias? Puede un robot ser culpable? Puede su
decisión independiente contemplar las implicancias que estén más allá de un
cálculo de eficacia o eficiencia? Supongamos que un drone ofensivo se encuentra
ante un niño-soldado, podrá distinguir la situación antes de ejecutar su
decisión de tomar su vida? Si una línea de suministros abastece no solo a
soldados enemigos sino también a civiles no beligerantes y que dependen de la
misma para su supervivencia, considerará la situación o solo decidirá de
acuerdo a criterios militares? Podrá tal tecnología discriminar el poder de la
respuesta entre neutralizar a un combatiente enemigo y eliminarlo?
Será entonces tal
robot responsable de sus actos, puesto que es su sistema autónomo quien
decidió? No implicaría el considerarlo agente moral, considerarlo
definitivamente Persona? En 1940 el genial Isaac Asimov, diseñó las tres leyes
de la robótica, cuestión clave para entender películas como “Yo, Robot”, “Robocop”
y la producción literaria y cinematográfica ciencia ficción que gira en torno
al tema. El enunciado de Asimov prescribe: Primera Ley: Un robot no puede hacer
daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos,
excepto si estas órdenes entraran en conflicto con la primera ley. Tercera Ley:
Un robot debe proteger su propia existencia en la medida en que ésta protección
no entre en conflicto con la primera ley o la segunda ley. Asimov intuía un
grave conflicto y trató de colocar un límite, siempre, en la ficción.

El Profesor Noel
Sharkey, especialista en robótica, miembro y co-fundador de la ONG en contra
del desarrollo y producción de killer-robots y director del Comité para el
control de armas-robot aclara: “los sistemas de armas autónomas no pueden
garantizar un predecible cumplimiento de las leyes internaciones, las naciones
no están hablando al respecto lo que pone a la humanidad frente a un gran
riesgo”.
En “Yo, Robot” o
“Bicentennial Man” (también basada en “The Positronic man” de Asimov) los
robots en cuestión desean “humanizarse” en la ficción, pero el paso de la
ficción a la realidad ha resultado ser mucho más complejo.
El desarrollo y
la implementación de tal tecnología debe ser discutido y prohibido antes de que
sea demasiado tarde. El 20 de octubre, la ONU debatirá la cuestión.
Para más
información: www.stopkillerrobots.org
No hay comentarios:
Publicar un comentario