domingo, 15 de febrero de 2015

Robots militares: Hasta dónde y cuando darles autonomía y en qué grado

Think Tank publica informe sobre los tanques que piensan
Cómo hablar de los robos asesinos que toman sus propias desiciones
Por Kelsey D. Atherton - Popular Science


Modelo de vehículo robótico abandonado 

Ninguna tecnología militar es tal vez más visceralmente perturbadora que la idea de una máquina, armado con una pistola, por lo que la decisión por sí solo para matar a la gente. Es un tema a través de la ficción distópica y películas, y el anime protestas contra drones, a pesar del hecho de que los drones militares todavía tienen los seres humanos en los controles. Autonomía para armas - en la que se programan una torreta o futura máquina para presionar el gatillo de su propio - es una posibilidad definida en las guerras futuras. Un nuevo informe (leerlo al final de este post) del Center for New American Security, un think tank con sede en Washington DC, quiere guiarnos con calma en la comprensión de este futuro de máquinas pensantes armados.

Para facilitar la digestión, el informe analiza la gran pregunta de robots asesinos en preguntas más pequeños. La primera es acerca de la naturaleza de la autonomía en sí cuando se trata de máquinas.

La autonomía es compleja, pero cuando se habla de máquinas, los aspectos más importantes giran en torno a que controles los seres humanos todavía deben reservarse sobre la tecnología y qué decisiones la máquina puede producir por sí misma. Todos, desde el Pentágono para abajo están bastante preocupados por asegurarse de que los seres humanos estén involucrados cuando se trata de tomar decisiones letales, y los funcionarios definitivamente no quieren sólo robots metan mano a cualquier tipo de armas, mucho menos a las súper mortales.

El término técnico para mantener a los humanos implicados es "en el circuito," pero es donde los seres humanos se ubican en este bucle lo que más importa

El término técnico para mantener humanos involucrados es "en el circuito," pero es donde los seres humanos se ubican en este bucle lo que más importa. Un robot que explora el entorno buscando objetivos y le pregunta a un ser humano, para su aprobación antes de disparar en cada uno es diferente, por ejemplo, a un robot en el campo de batalla preguntando si puede seleccionar y atacar objetivos por su cuenta. Estas son preguntas que los pensadores militares, los diseñadores de robots y personas de redacción nuevas leyes de la guerra todos tendremos que pensar, así que es bueno tener las preguntas enmarcadas derecha en la delantera.

Los autores del informe, Paul Scharre y Michael C. Horowitz, descomponen más la ubicación "en el bucle". El misil que identifica los objetivos, pero pide autorización antes del disparo es "humano en el proceso", mientras que una máquina que recoge los objetivos y los ataca en sí misma es "humano fuera del bucle." Hay un término medio, sin embargo, disparar automáticamente armas defensivas, como una batería de misiles antimisiles que necesita para disparar ser más rápida de lo que un ser humano puede reaccionar o de lo contrario no funcionará. Scharre y Horowitz se refieren a las armas de este tipo como "humano en el bucle." En estos casos, un arma puede disparar sin la aprobación humana, pero el ser humano puede detener los futuros disparos.

Lo importante de estas distinciones es que son, al igual que la propia autonomía, cuestiones de grado. Tallando la autonomía en categorías, hace posible que los planificadores de defensa, legisladores y grupos de derechos humanos traten los tipos de forma diferente, especialmente la más amenazante "humanos fuera del bucle".

Si los robots militares van a ser parte de las guerras del futuro, es bueno tener una terminología común para entender que robots hacen qué. "An Introduction to Autonomy in Weapon Systems [Una introducción a la Autonomía en Sistemas de Armas]" no ofrece todas las respuestas para cómo el mundo y militar deben tratar a los robots autónomos, sino que establece un vocabulario útil para cualquier persona que quiera tener esa conversación en el futuro.

No hay comentarios.:

Publicar un comentario