¿Deben prohibirse los robots autónomos?

Se detuvieron las negociaciones de un tratado para prohibir los robots asesinos
 (Foto: Gettyimages)  (Foto: Redacción)

Desde finales de la década de los años 40 del siglo XX cuando los soviéticos detonaron su primera bomba atómica comenzó la llamada “carrera armamentista” con los Estados Unidos de América (EUA), la cual pese al final de la Guerra Fría ha subsistido, en gran medida gracias a que los avances tecnológicos no se detienen.

LEE: INTELIGENCIA ARTIFICIAL VS PORNOGRAFÍA INFANTIL

Recientemente la potencia de fuego de los diferentes ejércitos se ha potencializado por la aparición de dispositivos autónomos, denominados como Lethal Autonomous Weapons (LAW), estas herramientas representan un reto ético, moral y también legal.

Un grupo integrante de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCA) se reunió en Ginebra, Suiza para discutir sobre la prohibición formal de todas las armas autónomas controladas por inteligencia artificial (IA).

Algunos países exigen una regulación fuerte, e insta a la Organización de las Naciones Unidas (ONU) para la realización de una negociación formal para el próximo año. Rusia y EUA, apoyados por Australia, Corea del Sur e Israel.

La ONU introdujo el tema en su agenda a finales de 2013, pero no se han tenido avances, incluso hasta hoy no se ha establecido una definición definitiva de los LAW. Si bien por ahora estos dispositivos no son completamente autónomos porque todavía requieren la intervención de un individuo para abrir fuego contra un enemigo, pero el desarrollo tecnológico sigue avanzando para que no se necesite.

Permitir que las decisiones de vida o muerte se tomen por una máquina cruza la línea de lo moralmente permitido e implica un desafío enorme para la protección de civiles, el derecho internacional humanitario y para los derechos humanos en general.

Igual que los coches autónomos no existe una legislación que enuncie al culpable o responsable de una falta. Si un robot asesina a un civil por un fallo o defecto informático, quién será el responsable: ¿el programador, comandante, fabricante o el Estado?

En 2013 se inició la campaña Stop Killing Robots que actualmente engloba a 75 organizaciones no gubernamentales de 32 países. En 2015, más de mil expertos en IA firmaron una carta advirtiendo de la amenaza de estos adelantos. Por otra parte, quienes apoyan el desarrollo de estos sistemas argumentan que los soldados están más protegidos al no ser ellos los que intervengan, además del ahorro económico que suponen.

A fines de 2016, el Departamento de Defensa de EUA liberó un enjambre de 103 drones del tamaño de un pájaro. Estos se movían, cambiaban de forma y se coordinaban autónomamente, sin ningún tipo de intervención humana. Estos drones, además de poder repararse con piezas impresas en 3D, son más baratos. Según la marina norteamericana, un lote de 30 drones autónomos vale medio millón de dólares, la mitad que un misil antibuque Harpoon, al que podrían reemplazar.

El proceso hacia un tratado podría dilatarse, lo que llevaría a las naciones en contra a lanzar un proceso independiente cuyo impacto sería muy “limitado". Seguramente, EUA y probablemente también Rusia, China, Israel y el Reino Unido, no formarán parte de esto. No obstante, los países volverán a reunirse en noviembre para continuar (o no) con la negociación.