¿Los robots asesinos nos harán más seguros?

En 1942, Isaac Asimov publicó el cuento “Runaround”, que contiene las ahora icónicas Tres leyes de la robótica. Entrar en el número uno es: “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”.

¿Los robots asesinos nos harán más seguros?

Avance rápido hasta agosto de 2017, y más de 100 expertos en IA, dirigidos por espaciox fundador Elon Musk, han firmado una carta abierta a la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, lo que genera preocupaciones sobre la IA armada. “Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra”, argumentaron. “Una vez desarrollados, permitirán que los conflictos armados se luchen a una escala mayor que nunca y en escalas de tiempo más rápidas de lo que los humanos pueden comprender”.

Puede parecer que estas preocupaciones pertenecen al ámbito de la ciencia ficción, pero los sistemas letales de armas autónomas (LAWS, por sus siglas en inglés), denominados “robots asesinos”, ya están disponibles y en uso en la actualidad. A lo largo de la zona desmilitarizada entre Corea del Norte y Corea del Sur, por ejemplo, la pistola centinela Samsung SGR-A1 escanea el horizonte en busca de intrusos. En Rusia se están desarrollando armas no tripuladas y autónomas, como el cañón de siete toneladas Soratnik tanque de robot

arma_samsung

(Arriba: arma centinela SGR-A1 de Samsung. Fuente: Wikipedia/MarkBlackUltor)

Por el momento, los sistemas autónomos son raros y costosos. Sin embargo, a medida que mejoren las técnicas de fabricación y disminuyan los costos de producción, el armamento autónomo podría convertirse en una parte más importante de cómo manejamos la seguridad. Hay quienes argumentan que esto en realidad podría salvar vidas.

“Perder un dron es mejor que perder a una persona”

“Podemos reducir las bajas en los conflictos”, explica el Dr. Peter J Bentley, profesor honorario del University College London. “Perder un dron es mejor que perder a una persona”. En pocas palabras, no importa el costo de un sistema de armas autónomo, nunca igualará el costo de una vida humana. Además, si un soldado humano es asesinado o capturado, esto conlleva ramificaciones políticas, mientras que es poco probable que un robot perdido se doblegue bajo la tortura.

Los sistemas autónomos también conllevan el potencial de ser mucho más precisos y controlados que los bombardeos de conflictos anteriores, donde pueblos enteros han sido arrasados. “Las armas más inteligentes pueden proporcionar respuestas mucho más precisas y específicas, en lugar del bombardeo indiscriminado de conflictos históricos”, dice Bentley.

Pero no todos están de acuerdo en que estos beneficios superen los problemas.

Dado que perder un dron automatizado es mejor que perder a una persona, esto podría reducir el umbral de la guerra. “Es mucho más fácil enviar un sistema de armas autónomo a un área hostil para llevar a cabo una misión, en lugar de enviar personas reales que, si son capturadas o asesinadas, pueden tener implicaciones políticas para el gobierno que está instigando la acción”. dice el profesor J Mark Bishop, director del Centro de Tungsten para análisis inteligente de datos en Orfebres. El hecho de que un robot sea más desechable puede significar que es más probable que los países se arriesguen al uso de la fuerza.

También está el problema de que LAWS puede no ser vulnerable a la piratería por parte de partes malintencionadas. Ha habido casos, por ejemplo, en los que los drones han sido falsificados (alimentados con información falsa) para que aterricen. En 2011, se afirmó que un dron de vigilancia estadounidense estaba obligado a aterrizar en Irán. “En agosto de 2017, Estados Unidos prohibió el uso de drones DJI porque existía un riesgo de seguridad”, señala Bishop, refiriéndose a la prohibición del ejército de EE. UU. de drones fabricados por el fabricante chino sobre riesgos de ciberseguridad no especificados.

juegos de guerra complejos

Si bien los sistemas basados ​​en IA pueden superar la precisión humana en algunos casos, esto no necesariamente los hace consistentemente precisos. Ha habido desarrollos increíbles en el campo de la inteligencia artificial, pero generalmente en áreas que son inherentemente ordenadas y estructuradas. Desafortunadamente, la vida no es así. Mucho se ha dicho sobre los últimos éxitos en Go by AI players, por ejemplo, donde AI venció al actual campeón humano de Go en una serie de partidos. Sin embargo, A la IA no le fue tan bien en el complejo juego de estrategia Barco de estrellas.

StarCraft 2

(Arriba: StarCraft 2. Fuente: Blizzard)

Las IA son más capaces en juegos estructurados, como Go, donde solo se pueden hacer tantos movimientos. En los casos en que hay más variables, las IA pierden su eficacia. Esto se debe a que carecen de toma de decisiones contextual. Por ejemplo, hubo un momento en que un guardia de seguridad robot suicida se ahogó en un estanque ornamental. Aparentemente, un algoritmo no pudo detectar una superficie irregular. Un año antes, otro guardia de seguridad robot logró atropellar a un niño pequeño. El mundo real es caótico, algo a lo que la IA a menudo tiene dificultades para responder.

“Una preocupación particular que tengo son las consecuencias imprevistas de una IA relativamente estúpida”

“Una preocupación particular que tengo son las consecuencias imprevistas de una IA relativamente estúpida”, dice Bishop. “En 2011, dos bots de IA entraron en un guerra de precios por un libro, The Making of a Fly de Peter Lawrence, y ofrecieron este libro por más de $ 23,000,000. Eso nunca sucedería con un humano en el circuito”. Si bien los sistemas automatizados pueden reconocer el número, no pueden apreciar el valor de la suma. Ahora imagine si se tratara de dos sistemas de armas automatizados compitiendo entre sí.

También tenemos que considerar el tema de lo que sucede cuando la tecnología de armas autónomas prolifera en nuestra sociedad. Ya ha habido casos de drones comerciales que se utilizan para el contrabando ilegal. en prisiones. También ha habido un caso en el que se equipó un dron comercial con un arma de fuego cargada que podía dispararse de forma remota. Existe el peligro de que, si las LEYES se generalizan, puedan ser usurpadas y utilizadas por delincuentes u organizaciones terroristas.

“Bajo control humano”

Si bien el ejército británico está explorando actualmente las posibilidades de los sistemas autónomos, como el uso de automóviles sin conductor en convoyes de suministro, el Ministerio de Defensa ha declarado que no tiene intención de desarrollar o adquirir sistemas de armas totalmente autónomos.

Hay, en palabras del MOD, un “número limitado” de sistemas defensivos que pueden operar automáticamente, pero estos siempre tienen un ser humano involucrado al establecer los parámetros operativos. “Está bien que nuestras armas sean operadas por personas reales, capaces de tomar decisiones complejas y aunque se vuelvan cada vez más de alta tecnología, siempre estarán bajo control humano”, dijo un portavoz de MOD.

No obstante, existe un peligro real de que nos dirijamos hacia una carrera armamentista de IA. En 2015, varios expertos líderes en IA presentaron un carta abierta en el Conferencia Internacional Conjunta sobre Inteligencia Artificial, advirtiendo que la perspectiva de una guerra a gran escala basada en IA es una perspectiva muy real. “Comenzar una carrera armamentista de IA militar es una mala idea, y debe evitarse mediante la prohibición de armas autónomas ofensivas más allá del control humano significativo”, concluyeron.

A pesar de la precisión mejorada y los tiempos de respuesta de los sistemas de armas autónomos, carecen de las habilidades de razonamiento deductivo y de toma de decisiones contextuales de sus contrapartes humanas. Podrían reducir el número de bajas, pero también existe la posibilidad de que hagan que la guerra sea más peligrosa de lo que es ahora, especialmente si esta tecnología cayera en las manos equivocadas.