domingo, 12 de abril de 2015

Los robots asesinos dejan de ser ciencia ficción


Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, abandonaron la ciencia ficción para entrar de lleno en la agenda internacional sobre desarme: a partir del próximo lunes, la ONU reúne en Ginebra a decenas de expertos durante cinco días para estudiar todas las implicaciones de los llamados Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés). El objetivo de los investigadores es convencer a la comunidad internacional para que impulse una prohibición global de este tipo de armas, que plantean profundos dilemas éticos, sobre todo en el terreno de las leyes de la guerra: ¿quién es responsable si una máquina autónoma comete un crimen? Todavía no existen, pero sí la tecnología capaz de desarrollarlas.
“Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición”, explica Noel Sharkey, profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que ha impulsado la mayor campaña internacional contra los robots militares, Stop Killer Robots. “Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo”, agrega. Sharkey, que lleva casi una década dedicado exclusivamente a este problema, asegura que la reunión de Ginebra se produce “porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convención sobre Armas Convencionales decidieron convocar a expertos para documentarse a fondo antes de tomar una decisión”.
El objetivo de esta convención es el control de lo que se denominan “armas inhumanas” y ha generado acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonales y los láser cegadores. Este armamento se prohibió antes de que estuviese operativo y eso es lo que pretenden los científicos: que los robots asesinos no lleguen a crearse nunca.
Muchos países han desarrollado sistemas de armas autónomos, como el x47-B de EE UU, un avión que puede aterrizar y despegar solo. De hecho, la eficacia del escudo israelí Cúpula de Hierro se basa en la robótica. Se han inventado armas que se mueven por su cuenta (por ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte), pero la decisión de abrir fuego sigue siendo humana. Por ahora.
Con motivo del encuentro de Ginebra, Human Rights Watch y Harvard Law School’s International Human Rights Clinic han publicado este jueves un informe que relata lo que implicaría que las máquinas con capacidad para decidir sobre la vida y la muerte entrasen en el campo de batalla.
Su conclusión es clara: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”. Una de las ideas contra las que lucha la campaña internacional es que, en principio, no suena mal que sean máquinas, y no seres humanos, los que hagan las guerras.
El panorama que describe este documento se parece bastante a Terminator: “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se dejen llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles.
Debido a que estas armas revolucionarían la guerra, también pueden desatar una carrera armamentista. Una vez que estuviesen totalmente desarrolladas, se producirá una proliferación a estados irresponsables o grupos armados no estatales. Algunos críticos también argumentan que el uso de robots podría hacer más fácil que los líderes políticos recurran a la fuerza porque reduciría el riesgo para sus propios soldados”.
A todo esto, habría que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches autónomos, una tecnología plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad si ocurre un accidente con un coche que conduce una máquina.
El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados, expertos en derechos humanos, desarrolló un argumentario para la reunión de Ginebra con los problemas para la seguridad global que plantean las armas autónomas. “Nos encontramos en un momento crítico en la evolución del armamento. Todavía estamos a tiempo para detener la automatización de la decisión de matar, para asegurarnos que todas las armas siguen estando controladas por seres humanos”, mantiene el texto.


Quizá te interese:

No hay comentarios:

Publicar un comentario