LAS LEYES DE LA ROBÓTICA, EL CONFLICTO POSMODERNO Y LA GUERRA TECNOLÓGICA


Las Leyes de la Robótica, formuladas por Isaac Asimov en la novela Círculo Vicioso publicada en marzo de 1942 y desarrolladas en obras posteriores, surgieron para protección de los seres humanos en un mundo futuro plagado de robots. Estas leyes establecen:
Primera Ley. Un robot no puede causar daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Segunda Ley. Un robot debe obedecer las órdenes de los seres humanos, excepto si dichas órdenes entrasen en conflicto con la Primera Ley.
Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Posteriormente, se enunció la denominada Ley Cero, que prescribe que un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño. Estas leyes se formularon en una época relativamente reciente, pero en la que realmente el escenario que planteaban era de ciencia ficción. Esto ocurrió antes del advenimiento de la “sociedad de la información”, del “conflicto posmoderno” y la “guerra tecnológica”.
En la posguerra fría los especialistas en seguridad y defensa se centraron en la aplicación de nuevas capacidades militares como los sistemas de comunicaciones y seguimiento espaciales, las armas cibernéticas, el uso intensivo de plataformas no tripuladas y la introducción masiva de la robótica en el campo de batalla. En particular, desde el 2001 se asiste a un fenómeno complejo: los avances tecnológicos que genera la industria militar suministran nuevos medios de combate autónomos a los Ejércitos que requieren de una revisión de los documentos de seguridad y, a su vez, la revisión de estos documentos supone la consideración de nuevos ámbitos de actuación para los sistemas de combate creados por la industria, que se ve impelida a aportar soluciones técnicas a las exigencias de empleo táctico. De hecho, en la comunidad académica se ha abierto el debate sobre si se está produciendo un cambio radical en la manera de hacer la guerra. Tal es así que algunos analistas consideran el año 2010 como el "año cero" en el uso de los robots en los conflictos armados, pues ese año fueron abatidas en diferentes escenarios bélicos en el mundo más de mil personas a manos de robots[1].
Pues bien, como resultado de un seminario de expertos que tuvo lugar en septiembre de 2010[2], el Consejo de Investigación de Ingeniería y Ciencias Físicas[3] y el Consejo de Investigación de Artes y Humanidades de Gran Bretaña publicaron en 2011 un documentos conjunto en el que formularon Cinco Principios Éticos de la Robótica para los Humanos dirigidos “a los diseñadores, constructores y los usuarios de los robots en el mundo real, junto con siete mensajes de alto nivel”, que son[4]: los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los seres humanos; los seres humanos, no los robots, son los agentes responsables; los robots son herramientas diseñadas para lograr los objetivos humanos; los robots deben ser diseñados de forma que aseguren su protección y seguridad; los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano; siempre debe ser posible averiguar quién es el responsable legal de un robot.
Sin embargo, por enésima vez aparece ayer en los medios de comunicación la noticia de que “trece personas han muerto en Yemen por el bombardeo de un drone estadounidense”[5]. Según la información al menos diez supuestos combatientes de Al-Qaeda murieron en un ataque aéreo realizado por un avión no tripulado americano. Además resultaron muertos tres civiles que circulaban con un vehículo cerca de la camioneta atacada y otras cinco personas resultaron heridas. La justificación del ataque reside, no podía ser de otra manera, en que los terroristas planeaban atacar instalaciones “vitales” civiles y militares en la provincia de Al Baida. Pero resulta que el parlamento yemení formuló una declaración el 15 de diciembre de 2013 que prohíbe que aviones no tripulados americanos sobrevuelen su territorio, medida que se adoptó, precisamente, como consecuencia de un ataque aéreo anterior contra un convoy en el que murieron trece personas. Ahora bien, según la Administración Obama el parlamento yemení carece de autoridad bajo el actual gobierno de transición, pues resultó elegido cuando regía el país el depuesto presidente Saleh. Es decir, se trata de caso de soberanía territorial sobre un territorio, Yemen, en el que otro Estado ejerce simultáneamente la supremacía.
Ahora se sabe que el primer ataque mortal de estas características tuvo lugar el 2 de noviembre de 2002, precisamente en Yemen. Desde entonces el uso de los aviones no tripulados se ha extendido a los conflictos bélicos de Afganistán, Pakistán, Sudán, Somalia, Yemen, Líbano, Gaza y Malí. En febrero de 2013 el senador americano L. Graham declaró que los drones de su país habían asesinado al menos a 4.700 personas en los últimos años, aunque no facilitó las fuentes en las que se basaban esos datos[6]. Fuentes más recientes aportan datos más precisos desglosados por países: por ejemplo, en Pakistán de 2004 a 2013 se llevaron a cabo 373 ataques con entre 2.513 y 3.595 muertos; en Somalia de 2007 a 2013 entre 3 y 7 ataques con entre 7 y 27 muertos; en Yemen en el período 2002 a 2013 entre 54 y 64 ataques con 268 a 393 muertos[7]. Otras operaciones encubiertas se cuentan por decenas y el número de muertos por miles.
Por lo tanto, es fácil concluir que las Leyes de la Robótica de Asimov, formuladas antes de la introducción de los robots en los conflictos armados, no se cumplen y que los Cinco Principios Éticos de la Robótica de 2011 no son más que un mero ejercicio intelectual de un grupo de investigadores ilusos. Pero esta preocupación trasciende el ámbito meramente intelectual o académico. Como decía recientemente el general de la Fuerza Aérea americana D. Deptula: “la cuestión es hasta dónde vamos a dejarles llegar”[8]. Por eso, el Departamento de Defensa aprobó el 21 de noviembre de 2012 la Directive on Autonomy in Weapon Systems en la que se establecen las directrices para minimizar la probabilidad y, en su caso, las consecuencias de fallos en los sistemas de combate autónomos futuros que, incluso, puedan llegar a efectuar “ataques no intencionados”, esto es, no programados. En la misma Directiva se define como sistemas de armas autónomos como aquellos que “potencialmente pueden fijar o atacar objetivos sin la participación de un operador humano”[9].
¿Hacia dónde nos llevará esto? ¿Hacia Skynet y el fin de la especie? ¿Las máquinas realmente gobernarán lo que reste del mundo? ¿O es que nuestra desilusión y desengaño nos lleva a no querer ver más que al ser humano como el espécimen autodestructivo, sin ley, ni Dios, ni futuro?



[1] Germain, E.: “2010: Année zéro des guerres robotisées”, Revue Défense núm. 740, 2011, pp. 119-121
[3] El sitio web del Consejo de Investigación de Ingeniería y Ciencias Físicas es http://www.epsrc.ac.uk/Pages/default.aspx
[4] El contenido del seminario “Principles of Robotics. Regulating robots in the real world” está en http://www.epsrc.ac.uk/research/ourportfolio/themes/engineering/activities/Pages/principlesofrobotics.aspx
[6] “US senator says drones death toll is 4700”, The Telegraph, 21 de febrero de 2013, http://www.telegraph.co.uk/news/worldnews/northamerica/usa/9884667/US-senator-says-drones-death-toll-is-4700.html
[7] Dworkin, A.: “Drones, ataques selectivos y la posición de Europa”, Política Exterior núm. 156, 2013, pp. 16-20.

No hay comentarios:

Publicar un comentario