Mostrando las entradas con la etiqueta ética. Mostrar todas las entradas
Mostrando las entradas con la etiqueta ética. Mostrar todas las entradas

miércoles, 2 de junio de 2021

Sistemas autónomos matando: Skynet debe esperar, según análisis francés

Opinión francesa sobre la ética de las armas autónomas

Jean-Baptiste Jeangène Vilmer || War on the Rocks




¿Cómo afrontarán las democracias más poderosas del mundo los dilemas éticos y legales planteados por el desarrollo de los llamados "robots asesinos" o sistemas de armas autónomas letales (lethal autonomous weapons systems o LAWS)? Por un lado, LAWS promete ventajas operativas incomparables, como actuar como un multiplicador de fuerza, expandir el campo de batalla y sacar a los humanos de misiones aburridas, sucias o peligrosas. Las potencias autoritarias como China y Rusia parecen estar dedicando enormes recursos a la consecución de estas capacidades. Por otro lado, otorgar a las armas autónomas la autoridad para determinar quién vive o muere es una pesadilla ética, práctica y legal. Un par de estados tienen políticas bien documentadas, sobre todo Estados Unidos y Reino Unido.

Este artículo se centra en Francia, que ha comenzado el difícil trabajo de analizar los problemas éticos asociados con los sistemas de armas autónomas letales. Soy miembro del Comité de Ética de Defensa de Francia, que depende directamente del ministro de Defensa del país. El año pasado, el comité presentó una opinión sobre el "soldado mejorado", que trazó una línea roja entre las prácticas aceptables y no invasivas y las inaceptables, como la ingeniería genética.

En abril, el Ministerio de Defensa francés publicó otro dictamen del Comité de Ética de Defensa sobre "la integración de la autonomía en los sistemas de armas letales". Argumentamos que las LAWS deben entenderse como armas completamente autónomas, que son éticamente inaceptables por varias razones, pero que los sistemas de armas letales parcialmente autónomas (PALWS), que presentan tanto beneficios como riesgos potenciales, podrían ser éticamente aceptables en determinadas condiciones.

¿Por qué eso importa? No solo porque, según el conocimiento de este autor, ninguna otra potencia militar importante tiene un comité de ética de este tipo desempeñando un papel tan importante dentro de su Ministerio de Defensa, y eso en sí mismo dice algo sobre el espíritu francés. Es probable que la opinión del Comité de Ética de la Defensa sobre las armas autónomas sea analizada por varias otras razones: fue Francia quien, en 2013, inició el debate multilateral sobre las armas autónomas; ha sido un participante activo en el debate desde entonces (ver, por ejemplo, la propuesta franco-alemana de 2017); y también porque Francia presidirá la próxima conferencia de revisión de la Convención sobre ciertas armas convencionales en diciembre de 2021.

LAWS versus PALWS

La primera tarea del comité, y posiblemente la más importante tarea inicial, fue definir los términos clave. Decidió definir LAWS como:

Un sistema de armas letales programado para ser capaz de cambiar sus propias reglas de operación, particularmente en lo que respecta al enfrentamiento con el objetivo, más allá de un marco de uso determinado, y capaz de computar decisiones para realizar acciones sin ninguna evaluación de la situación por parte de un comando militar humano.

El aspecto más importante de esta definición es su estrechez: de acuerdo con la posición de Francia en las reuniones de la ONU, los LAWS se consideran sistemas totalmente autónomos. Definir LAWS siempre ha sido un desafío, porque, si se entiende como completamente autónomo, estamos hablando de armas que aún no existen. Como resultado, no hay experiencia compartida o entendimiento con estas armas. En la historia del control de armas, eso los hace bastante únicos. En foros multilaterales (por ejemplo, las Naciones Unidas), algunos estados han utilizado el desafío de definir las LEYES como una excusa para obstruir o reorientar el debate. Al limitar LAWS a armas totalmente autónomas, Francia defiende un enfoque restrictivo que evita que esas armas se confundan con sistemas de armas operados a distancia o supervisados, que siempre involucran a un operador humano.

Luego, el comité introdujo la categoría de sistemas de armas letales parcialmente autónomos (PALWS). Decidió definirlo como:
[I] ntegrar automatización y software: [1] al cual, luego de evaluar la situación y bajo su responsabilidad, el comando militar puede asignar el cómputo y ejecución de tareas relacionadas con funciones críticas tales como identificación, clasificación, interceptación y compromiso dentro del tiempo y límites de espacio y condiciones; [2] que incluyen salvaguardas técnicas o características intrínsecas para evitar fallas, mal uso y renuncia por el mando de dos deberes vitales, a saber, la evaluación de la situación y la presentación de informes.

PALWS son una categoría intermedia, distinta de las otras dos. Por un lado, los PALWS no son LAWS porque no pueden cambiar sus propias reglas de funcionamiento, "no pueden tomar iniciativas letales". Por otro lado, los PALWS tampoco son sistemas de armas automatizados. La diferencia entre autonomía y automatización es fundamental. Una vez desplegadas, tanto las armas autónomas como las automatizadas pueden funcionar sin la participación humana. Sin embargo, mientras que la automatización se refiere al desempeño de un número limitado de tareas repetitivas y predeterminadas (el sistema siempre reacciona de la misma manera al mismo estímulo), la autonomía implica la capacidad de aprender y adaptarse en un entorno cambiante. Por ejemplo, las minas y algunos sistemas de defensa aérea están automatizados porque actúan de forma reactiva y repetitiva, detonando o disparando, cuando sus sensores detectan un objeto. No aprenden ni se adaptan, y no necesitan hacerlo porque no tienen que afrontar situaciones inesperadas. Su entorno no cambia. Las PALWS no son LAWS en el sentido de que no son completamente autónomas. Sin embargo, debido a que todavía son (parcialmente) autónomos, tampoco son armas automatizadas. Varias armas existentes podrían clasificarse como PALWS, entre las que se encuentran las municiones merodeadores como el israelí IAI Harop, el turco STM Kargu-2 (ver el video al final por una potencial primera utilización de este drone para un ataque automático en Libia) y un modelo chino no identificado utilizado en enjambres; las Bombas Colaborativas Americanas de Pequeño Diámetro (CSDB), o el buque de guerra con drones Sea Hunter (ver foto de arriba).

Ahora bien, en este punto podrían plantearse dos objeciones. Primero, que tal distinción entre LEYES y PALWS ciertamente no es nueva en el debate internacional, ni en las doctrinas nacionales. De hecho, ya en 2012, cuando Estados Unidos fue el primer país en establecer pautas para el desarrollo y uso de la autonomía en los sistemas de armas, ya habían distinguido entre un sistema de armas autónomo y uno semiautónomo. Si la categoría PALWS es una innovación terminológica en francés, especialmente en un documento ministerial, los sistemas de armas “parcialmente” y “semi” autónomos, aunque se definen de manera diferente, se refieren al mismo desafío de describir lo que se encuentra bajo el umbral de la plena autonomía.

En segundo lugar, al adoptar una definición estrecha de LAWS que se limita a las armas totalmente autónomas, ¿no las define Francia como algo que nadie ha querido nunca? Bajo la apariencia de rechazar LAWS, una categoría de sistemas que realmente no han sido considerados, ¿no está Francia realmente legitimando la categoría más realista de PALWS? Esta es una preocupación legítima. Sin embargo, como miembro del comité que redactó el dictamen, la intención no era legitimar cualquier categoría de armas autónomas que sea. En cambio, el objetivo era agregar el rigor intelectual necesario. El problema con la terminología “LAWS” es que se presume que “autónomo” es dicotómico: un sistema es, o no, autónomo. Y si es autónomo, se presume que es completamente autónomo, lo que, por buenas razones, nadie quiere realmente. Por tanto, es más útil adoptar una terminología alternativa basada en la idea de que la integración de la autonomía en los sistemas de armas puede ser y será gradual. Rechazar LAWS y centrarse en PALWS por esa razón no significa que PALWS no pueda ser éticamente problemático. No los está legitimando. Más bien, su legitimidad depende de varios criterios. La distinción ofrecida por el comité simplemente reorienta la discusión para centrarse en la categoría relevante.

Los LAWS no son aceptables

Francia ha renunciado públicamente al uso de armas letales totalmente autónomas, tanto por razones éticas como operativas, desde 2013. En 2018, el presidente Emmanuel Macron dijo que se "oponía categóricamente" a las LAWS, en la medida en que "abolirían toda responsabilidad". Añadió que “la decisión de dar luz verde la tiene que tomar un ser humano porque se necesita a alguien que se responsabilice de ello”. En mayo de 2021, la ministra de Defensa francesa, Florence Parly, confirmó que “Francia dice y siempre dirá que no a los robots asesinos. Francia se niega a confiar la decisión de vida o muerte a una máquina que actuaría de forma totalmente autónoma y escaparía a cualquier control humano ”.

La posición de Francia sobre LAWS está en línea con sus aliados más cercanos. La directiva de 2012 del Departamento de Defensa de EE. UU. declaró explícitamente que sus sistemas de armas deberían "permitir a los comandantes y operadores ejercer los niveles adecuados de juicio humano en el uso de la fuerza". Esta es, por supuesto, otra forma de decir que no deberían ser completamente autónomos. Del mismo modo, el Reino Unido expresó repetidamente que "no está desarrollando sistemas de armas autónomos letales, y el funcionamiento de los sistemas de armas por parte de las fuerzas armadas del Reino Unido siempre estará bajo supervisión y control humanos". Muchos otros estados hicieron comentarios similares. De hecho, este es uno de los pocos puntos de consenso en el debate de la ONU sobre las LEYES: de una forma u otra, todos insisten en mantener el control humano. Nadie quiere un arma completamente autónoma, ya que la autonomía total, literalmente la capacidad de establecer las propias reglas, significaría imprevisibilidad, lo que haría que esos sistemas fueran "militarmente inútiles".

Pero esto solo plantea una pregunta más difícil: ¿Deberían los países prohibir preventivamente los LAWS? Aquí es donde radica el desacuerdo.

El Comité de Ética de la Defensa de Francia también rechazó la incorporación de LAWS en el ejército del país por varias razones. Los LAWS:

[R] omper la cadena de mando; atentar contra el principio constitucional de libertad de acción para disponer de las fuerzas armadas; no proporcionar ninguna garantía sobre el cumplimiento de los principios del derecho internacional humanitario; ser contrarios a nuestra ética militar y a los compromisos fundamentales asumidos por los soldados franceses, es decir, honor, dignidad, uso controlado del uso de la fuerza y la humanidad.

El comité consideró "legítimo y vital continuar la investigación en el área de la autonomía en armas letales", una investigación centrada "en formas y medios de permitir que las fuerzas francesas contrarresten el uso de LAWS por parte de los estados u otros enemigos, pero sin usar LAWS nosotros mismos". . "

Las PALWS son interesantes y arriesgadas

PALWS ofrece una serie de ventajas en términos de rendimiento, precisión, pertinencia, protección y permanencia (las “5 P”). En términos de rendimiento, proporcionarán medios para ganar velocidad, en particular al acortar el ciclo observar-orientar-decidir-actuar. Además, uno de los mayores desafíos del futuro de la guerra será la defensa contra ataques convencionales o nucleares entrantes a velocidad hipersónica (de al menos Mach 5, y algunos de ellos supuestamente alcanzan Mach 20), lo que deja muy poco tiempo para reaccionar y, por lo tanto, requiere una mayor autonomización. Lo mismo ocurre con la defensa contra un ataque de saturación o enjambre. PALWS también será útil para monitorear áreas muy extensas en todos los entornos (terrestre, aéreo, marítimo, cibernético, espacial) que no se pueden cubrir sin un cierto grado de autonomía.

PALWS también ayudará a lidiar con la creciente masa de información ("diluvio de datos") que enfrentan los centros de mando y los soldados individuales. Los sistemas autónomos pueden ayudar a la toma de decisiones en un campo de batalla cada vez más interconectado. También ayudarán a penetrar en áreas altamente defendidas física y virtualmente; mejorar la precisión de los golpes; y proteger a los soldados, especialmente contra artefactos explosivos improvisados ​​o en ambientes contaminados. Finalmente, los PALWS durarán más que los equipos humanos en el mar, en el aire o en tierra, especialmente en entornos peligrosos o sucios, y por tanto proporcionarán una mayor permanencia en una zona determinada.

Al mismo tiempo, los PALWS presentan una serie de riesgos. El despliegue de armas autónomas, incluso si son solo parcialmente autónomas, pone a prueba la aceptabilidad moral y social del uso de la fuerza sin intervención humana. La oposición interna al uso de PALWS, incluso entre los propios soldados, podría socavar la confianza en las acciones y la legitimidad del estado. El aprendizaje automático también puede conducir a comportamientos inesperados y no deseados, ya que plantea problemas en la confiabilidad a largo plazo de los sistemas.

También está la cuestión de la rendición de cuentas: en caso de un incidente (por ejemplo, fuego amigo o víctimas civiles), ¿quién debe ser considerado responsable? Esta es, de hecho, una de las principales críticas dirigidas a las armas autónomas e invocadas por los opositores como motivo para pedir una prohibición preventiva. La integración de la autonomía en los sistemas de armas inevitablemente hará que sea más difícil establecer la responsabilidad, ya que hay muchas capas de control (estado, fabricante, programador, integrador de sistemas, contratista y comandante militar). Establecer la responsabilidad será difícil pero no imposible, porque una capacidad autónoma de toma de decisiones no “rompe la cadena causal que permite la atribución y la responsabilidad”, como explicó el profesor Marco Sassòli en 2014. Además, tal dilución de la responsabilidad no es inaudita, ya que ya es lo que sucede cuando un avión con piloto automático se estrella, o cuando un automóvil autónomo tiene un accidente.

Entre otros riesgos de incorporar PALWS, el Comité de Ética de Defensa identificó la piratería (por lo tanto, secuestrando esos sistemas); el impacto psicológico en los seres humanos, especialmente aquellos excluidos del proceso de toma de decisiones o que ya no pueden entender lo que está haciendo el sistema, lo que podría causar una falta de participación o una “pérdida de humanidad” en el combate; y otros riesgos psicológicos como confiar ciegamente en la máquina, perder la confianza en la capacidad humana para afrontar una situación compleja y desarrollar todo tipo de sesgos cognitivos. También existe el riesgo de reducir el umbral del uso de la fuerza y ​​el riesgo de proliferación global, incluida la adquisición por parte de actores no estatales.

Cómo PALWS podría ser éticamente aceptable

Es esencial delinear las condiciones bajo las cuales sería éticamente aceptable diseñar, desarrollar e implementar PALWS. Esto es lo que el Comité denominó las “5C”: mando, control de riesgos, cumplimiento, competencia y confianza.

Para cada misión, PALWS debe tener reglas establecidas por el comando humano (en términos de su objetivo, límites espaciales y temporales, reglas de enfrentamiento y otras restricciones); no deberían poder cambiar esas reglas por sí mismos (solo el comando humano puede hacerlo); no deben poder asignar una misión que se aparte de lo que fue programado inicialmente a otro PALWS, o solo después de la validación por parte del comando humano; y lo que adquieren a través del aprendizaje automático durante una misión no debe usarse para programar nuevas tareas sin la participación humana.

Además, el personal militar que despliega PALWS (no solo operadores sino también líderes tácticos, comandantes de teatro y líderes estratégicos) debe estar preparado y capacitado en consecuencia. De manera similar, cualquier personal involucrado en el diseño, desarrollo y promoción de esas armas (ej., ingenieros, investigadores, diplomáticos, políticos) deben ser conscientes de los diversos riesgos y problemas que implica su uso. Las autoridades públicas también deben ser informadas. Además, se deben implementar en los sistemas mecanismos como la desactivación de emergencia o la autodestrucción, en caso de una pérdida de comunicación, así como un dispositivo para abortar una misión en curso.

El Comité de Ética de la Defensa de Francia también recomendó realizar una revisión legal completa siempre que se desarrolle la autonomía en la toma de decisiones en un sistema de armas letales, "especialmente en lo que respecta a las funciones de identificación, clasificación y apertura de fuego". Por último, pero no menos importante, también abogó por la transparencia internacional.

Mirando hacia el futuro

No hay nada radicalmente nuevo en esta opinión del Comité de Ética de Defensa francés para quienes siguen de cerca el debate internacional de una década sobre armas más o menos autónomas. La mayoría, si no todas, de estas recomendaciones han sido realizadas por académicos y organizaciones no gubernamentales. Lo interesante de esta opinión ética es que también involucra argumentos legales, científicos y operativos, y que proviene de un comité creado por el Ministerio de Defensa francés. Sin embargo, lo que está en juego aquí no es solo un estado. Mientras más estados individuales desarrollen una política pública clara y detallada, más fácil será acordar un marco normativo a nivel global.

domingo, 7 de junio de 2020

Guerra asimétrica: La ética y legalidad de la guerra de los drones

Drones y la legalidad y ética de la guerra


Franklin C. Annis || Small Wars Journal



El uso de drones es una evolución natural en la ciencia de la guerra. En el nivel táctico, los militares a menudo buscan dañar las fuerzas de sus oponentes mientras presentan la menor cantidad de riesgo para sus propios soldados. Los drones armados parecen presentar un medio para participar en enfrentamientos tácticos de bajo riesgo. Los primeros ejemplos del intento de uso de drones ocurrieron en la Segunda Guerra Mundial durante la Operación Afrodita, donde los bombarderos B-17 "Flying Fortress" estaban equipados con sistemas de control de radio volados hacia objetivos nazis endurecidos mientras eran controlados por pilotos en una escolta "nave nodriza". [I] Desafortunadamente , la tecnología no estaba lo suficientemente avanzada en el momento para lograr cualquier golpe en el objetivo. Durante la segunda mitad del siglo XX, esta tecnología continuó siendo refinada, pero se limitó principalmente a las misiones de reconocimiento. A mediados de la década de 1990, General Atomics desarrolló el famoso dron "Predator" RQ-1, apreciado por su pequeño tamaño, capacidades de reconocimiento y, más tarde, su capacidad para transportar misiles AGM-114 "Hellfire" y otros armamentos. [Ii] El uso de Los depredadores y otros drones modernos en la Guerra Larga cumplieron la promesa de llevar a cabo ataques ofensivos contra un enemigo sin ningún riesgo para los pilotos de estos sistemas. Pero si bien los objetivos tácticos ahora se pueden lograr fácilmente con aviones no tripulados, su capacidad para avanzar objetivos estratégicos y asegurar la paz todavía es muy cuestionable.

Los avances tecnológicos que han permitido el uso de drones, han agudizado en gran medida las preocupaciones éticas existentes de los conflictos militares. Como los tiempos de espera más largos de los drones han permitido una identificación más positiva de los objetivos, también lo ha hecho la demanda para garantizar que los objetivos se identifiquen adecuadamente. A medida que los drones han permitido minimizar el daño colateral, también ha aumentado la demanda de menos daño colateral. De esta manera, muchas de las inquietudes legales y éticas que rodean a los drones son simplemente un reexamen de las inquietudes éticas clásicas del conflicto armado intensificadas por la tecnología avanzada.

Desafortunadamente, el desarrollo de la generación actual de drones armados correspondió a una serie de ataques terroristas contra los Estados Unidos. Buscando involucrarse en una "guerra contra el terrorismo", los conceptos tradicionales de guerra y los límites del campo de batalla se extendieron. Esto presenta un desafío significativo sobre cómo el uso de drones podría restringirse en el futuro para cumplir con el "espíritu" de las leyes de la guerra. Este documento explorará algunas de las formas en que esta tecnología avanza y desafía jus in bello y jus ad bellum.

Definición

En este documento, el término "dron" se utilizará para hacer referencia a vehículos no tripulados. Esto puede incluir vehículos no tripulados que son aéreos, terrestres, marítimos o espaciales, siendo los vehículos aéreos no tripulados (UAV) los más comunes. Si bien muchos de sus sistemas de navegación y otras funciones pueden estar completamente automatizados, los drones requieren la capacidad de ser controlados de forma remota. De esta manera, no son sistemas de "disparar y olvidar" como los misiles de crucero. La intervención humana puede cambiar la misión del dron y controlar los sistemas de armas.

Alcance de este documento

Las preocupaciones éticas que rodean los sistemas logísticos de drones son muy similares a las preocupaciones éticas que rodean el uso de estos sistemas dentro de la comunidad civil. Por ejemplo, cómo se diseñan y programan estos drones para evitar la pérdida de vidas humanas durante su operación (es decir, cómo se evita que los autos autónomos atropellen a los peatones). Eliminar el requisito de un piloto humano a bordo dentro de los sistemas logísticos podría considerarse una gran mejora moral, ya que eliminaría el elemento humano (o "mortal") en riesgo directo dentro del sistema. Seguramente la comunidad mundial podría acordar que la eliminación de poblaciones humanas innecesarias del campo de batalla sea un objetivo justo y noble. El uso de drones para reemplazar la función de los animales de carga y reducir el riesgo de lesiones que no sean de batalla entre los soldados sobrecargados nuevamente debe considerarse como un objetivo admirable. [Iii] Si bien estos sistemas tendrían algunas preocupaciones éticas mínimas en torno al tema de la seguridad, Ofrecen evitar tener que poner a los animales militares en riesgo de daño o muerte y, por lo tanto, se podría argumentar que reducen la cantidad de preocupaciones éticas en el campo de batalla.

Si bien hay drones en uso o en desarrollo para proporcionar apoyo logístico militar, este documento se centrará en los drones con sistemas de armas ofensivas. Estos drones se caracterizan por su largo tiempo de espera (ayudando en la identificación positiva de los objetivos previstos) y los sistemas de armas ofensivas controlados por los operadores humanos. Es el uso ofensivo de drones lo que presenta las preocupaciones éticas más importantes. Estas inquietudes se discutirán más detalladamente en este documento. Este documento no examinará los sistemas de armas totalmente autónomos, ya que estos sistemas presentan una gran cantidad de preocupaciones éticas adicionales. Afortunadamente, los sistemas autónomos funcionales aún no han aparecido en el campo de batalla.

Jus en Bello "Medios justos"

Los drones ciertamente prometen mejorar el jus en bramido o los medios justos de guerra. Ofrecen ventajas para identificar mejor los objetivos con períodos de carga más largos que los sistemas a bordo de pilotos humanos. Usando armamento más preciso, existe la promesa de limitar la posibilidad de daño a los no combatientes. Los drones pueden ser ayudados por un gran personal de apoyo, incluidos los equipos legales y de comando, para determinar mejor si el uso de la fuerza es apropiado. A diferencia de las plataformas de armas tradicionales, la autoridad para usar armas no recae en el piloto o la tripulación. Con este tipo de ventajas, es fácil ver el atractivo para invertir y utilizar drones. En esta sección, este documento examinará la promesa de una mejor identificación de objetivos, daños colaterales limitados y un mejor discernimiento de la fuerza para determinar si se convirtieron en una realidad en el campo de batalla.

Identificación del objetivo. Los drones ofrecen una identificación de objetivos superior porque expanden la capacidad de los sistemas más allá de los límites humanos en un sistema pilotado por humanos. Por ejemplo, un sistema de drones Predator B puede permanecer en el aire durante más de 40 horas de tiempo de vuelo. [Iv] Esto se hace utilizando equipos rotativos de operadores humanos remotos que no están bajo el estrés de estar dentro de la plataforma. Un avión de reconocimiento pilotado tradicional tendría un tiempo de vuelo total más corto incluso cuando utilizara dos pilotos. Por supuesto, estos pilotos a bordo estarían bajo un estrés adicional causado por el avión y estarían en una zona de combate y, por lo tanto, tendrían un rendimiento degradado. La transmisión de datos de transmisión en vivo a un centro de operaciones permite a los equipos de analistas de inteligencia utilizar sistemas de identificación avanzados para distinguir objetivos de manera positiva. Este nivel de interfaz con sistemas de datos de inteligencia y soporte simplemente no podría ser posible dentro de un sistema pilotado por humanos.

Pero si bien los drones ofrecen grandes ventajas en tiempo y discernimiento de objetivos, como cualquier tecnología, no son perfectos. Por ejemplo, en marzo de 2011, un avión no tripulado de la Royal Air Force se enfrentó a dos camiones que transportaban grandes cantidades de explosivos en la provincia de Helman en Afganistán. Cuatro civiles afganos fueron asesinados y otros dos resultaron heridos en el ataque, ya que estaban presentes en los vehículos pero no eran visibles para el avión Reaper observador. [V] Si bien los drones ofrecen un rendimiento superior a la plataforma de armas tripuladas, todavía hay limitaciones para estos sistemas. Sería insensato creer que los drones podrían eliminar todo riesgo de consecuencias no deseadas del campo de batalla.

Daños colaterales. Con excepción de la variación termobárica del misil Hellfire (AGN-114N), [vi] las armas utilizadas por drones generalmente tienen efectos de área más bajos que las armas convencionales tradicionales. [Vii] Sin embargo, es importante tener en cuenta que prácticamente no hay diferencia en términos de jus in bello, desde drones que usan misiles Hellfire hasta sistemas pilotados por humanos que utilizan las mismas municiones. La ventaja de los drones es que a menudo solo pueden armarse con municiones guiadas de precisión y no llevan bombas no guiadas que a menudo llevan los sistemas pilotados por humanos.

El deseo de una aplicación precisa de la fuerza condujo a la creación del misil Hellfire AGM-114R9X. Apareciendo por primera vez en el campo de batalla en 2017, esta variante de los misiles Hellfire de Lockheed Martin intercambia explosivos tradicionales a favor de una ojiva cinética y múltiples cuchillas que se despliegan segundos antes del impacto. [Viii] Esta variante reduce drásticamente el riesgo de daño colateral al convertir el Fuego Infernal en más de un sistema de arma objetivo objetivo versos versos área. Este misil ciertamente avanza el espíritu de jus in bello al limitar la violencia en la batalla al objetivo previsto.

Discernimiento de fuerza. La mayor promesa que ofrecen los drones en el campo de batalla sería mejorar el discernimiento de la fuerza. Con las ventajas de tiempos de espera más largos y mejores capacidades de identificación de objetivos, no hay prisa por atacar de inmediato a un objetivo por temor a perder la oportunidad debido a los límites de los sistemas controlados por humanos. La autoridad para usar la fuerza no se invierte en el piloto sino en una "cadena de asesinatos" de analistas de inteligencia, revisores legales y líderes militares y civiles. Con protocolos estrictos sobre el uso de la fuerza, esta "cadena de muerte" teóricamente ofrece ventajas significativas sobre el uso de un sistema tripulado por humanos. Es poco probable que alguien encuentre un abogado en un equipo de bombarderos, pero uno o más abogados militares formarán parte de la cadena de exterminio de un avión no tripulado para ayudar a determinar la legalidad de un ataque. Si una huelga se determinara demasiado arriesgada en este momento, la huelga puede retrasarse. El dron puede continuar monitoreando la situación para detectar cualquier cambio que pueda hacer posible un ataque. La película "Eye in the Sky" [ix] presenta una descripción precisa de la cadena de asesinatos y su naturaleza política.

La capacidad del dron de observar la situación para confirmar la ausencia de civiles u observar el objetivo hasta que se hayan alejado de los civiles, ofrece ventajas significativas al tratar de minimizar la pérdida de vidas de civiles en el campo de batalla. Esto puede avanzar aún más cuando el sistema de drones trabaja con otras fuerzas militares en el área para observar el objetivo, y si el dron se engancha, al hacerlo con un misil guiado con efectos de área más pequeños que las armas típicamente transportan en aviones de combate. [X] Pero si bien los drones y sus "cadenas de exterminio" relacionadas pueden ofrecer la promesa de reducir las bajas civiles, ciertamente hay ejemplos de cuando esta promesa no se cumplió. Por ejemplo, en junio de 2009, un avión no tripulado de la Agencia Central de Inteligencia (CIA) disparó contra una multitud en el funeral de Baitullah Mehsud. La CIA estaba usando el cuerpo de Mehsud como cebo para atraer a los líderes talibanes. El número de muertos por el ataque con aviones no tripulados fue de 83 personas, de las cuales 45 eran civiles y diez eran niños [xi].

Jus ad Bellum "Guerra justa"

Los drones presentan muchos más desafíos con el jus ad bellum. Esto es especialmente cierto después del 11 de septiembre de 2001, cuando la tecnología había madurado completamente, y los Estados Unidos se percibían bajo una amenaza significativa de nuevos ataques terroristas. La tecnología de drones ha resaltado los conceptos vagos y la falta de definiciones claras para los términos dentro de jus ad bellum. Por ejemplo, muchos ataques de drones están justificados por objetivos que presentan una amenaza "inminente". A raíz del 11 de septiembre, la comprensión estadounidense de la guerra se expandió a medida que Estados Unidos autorizó el uso de la fuerza contra el "terrorismo". Como resultado, el uso de drones armados se extendió más allá de lo que anteriormente se habría considerado una zona de guerra para atacar individuos en otras naciones soberanas. Como resultado, el uso de esta tecnología tiene la posibilidad de desencadenar conflictos tradicionales, expandiéndose y no reduciendo la posibilidad de hostilidades. El concepto de quién está incluido en el estado combativo también ha aumentado para ahora incluir propagandistas y reclutadores. La existencia de esta tecnología parece justificar su uso en lugar de otras soluciones diplomáticas. También hay preocupaciones sobre los gobiernos que usan drones contra sus propios ciudadanos en violación de los derechos humanos. Finalmente, si bien los drones tienen una larga historia de victoria táctica, hay poca evidencia de que sean un medio efectivo para alcanzar objetivos estratégicos. Desafortunadamente, los drones pueden estar aumentando la intensidad de la guerra asimétrica para la que fueron diseñados.

El aumento del Drone asesino

Para comprender cómo llegamos al uso actual de drones armados, debemos examinar algunos eventos clave que ocurrieron justo en el siglo XXI. Si bien hubo avances en la tecnología de drones a lo largo del siglo XX, los drones demostraron tener el mayor éxito en el campo del reconocimiento. Los drones parecen ser una solución natural para reducir el riesgo de enviar aviones tripulados en misiones de reconocimiento. Durante la guerra de Vietnam, el ejército de los EE. UU. Utilizó los vehículos a control remoto Ryan Modelo 147 con gran éxito. A fines de la década de 1980, el Ejército de los EE. UU. Había adquirido el avión no tripulado RQ-2 Pioneer que sirvió en el Golfo Pérsico, Somalia, Bosnia, Kosovo e Irak. [Xii] El éxito con este tipo de avión no tripulado de reconocimiento llevó a la CIA y la Fuerza Aérea de los Estados Unidos a continuar desarrollo de aviones no tripulados con el ahora infame avión no tripulado General Atomics RQ-1 Predator en 1994. En 1993 hubo un bombardeo en el World Trade Center y en octubre de 2000 el USS Cole fue atacado con ambos incidentes relacionados con al-Qaeda. En 2000, la Fuerza Aérea de los Estados Unidos investigó la posibilidad de armar el dron Predator con misiones Hellfire originalmente diseñadas para helicópteros de ataque. La primera prueba armada se llevó a cabo con éxito en febrero de 2001, y la CIA presionó para lograr un desarrollo rápido al considerar a un Depredador armado como una herramienta poderosa contra Al Qaeda que opera en Afganistán. Según lo informado por Richard Whittle, "En 2001, el Depredador se convirtió en la primera arma en la historia cuyos operadores podían usarlo para acechar y matar a un solo individuo en el otro lado del planeta de la misma manera que lo hace un francotirador, y con total invulnerabilidad". [xiii]

El 11 de septiembre de 2001, Estados Unidos sufrió un ataque terrorista masivo con la destrucción del World Trade Center. Este único incidente reformuló la visión de los Estados Unidos del riesgo de las organizaciones terroristas en todo el mundo. El 18 de septiembre de 2001, el Congreso de los EE. UU. Aprobó la Autorización de Uso de la Fuerza Militar (AUMF) que otorgó amplia libertad para responder a al-Qaeda y apoyar a las organizaciones terroristas. Esta ley se utilizó para justificar la acción militar de los Estados Unidos en Afganistán, Filipinas, Georgia, Yemen, Yibuti, Kenia, Etiopía, Eritrea, Irak y Somalia [xiv] con ataques con aviones no tripulados en muchos de estos países. El 4 de febrero de 2002, la CIA llevó a cabo el primer ataque armado de un avión no tripulado Predator en Afganistán contra un objetivo que creen que era Osama Bin Laden. [Xv] Después de armar el avión no tripulado Predator, la Fuerza Aérea de los Estados Unidos cambió la designación del Predator del RQ -1 al MQ-1, reemplazando la "R" para el reconocimiento con la "M" que denota la función múltiple.

En las últimas dos décadas, un puñado de países ha operado drones armados. Si bien no hay nada inherente en esta tecnología que la haga más "poco ética" que otros sistemas de armas, la forma en que se ha utilizado esta tecnología y cómo ha influido en la percepción de la guerra ciertamente ha aumentado las preocupaciones éticas que rodean la guerra. A medida que otros países obtienen este tipo de tecnología, existe un riesgo creciente de que los drones puedan provocar una escalada de conflictos militares en todo el mundo.

Problema con conceptos mal definidos. Jus ad bellum permite que un país actúe en defensa propia. Este principio permitiría ataques preventivos contra actores o naciones extranjeras si hubiera una amenaza "inmediata". Desafortunadamente, lo que justifica una amenaza inmediata frente a las amenazas no inmediatas no está claro. Dado que los ataques con aviones no tripulados de EE. UU. Ocurren en áreas remotas como Yemen, que están significativamente separadas geográficamente de los intereses de EE. UU., uno puede ser llevado a preguntar si existió una amenaza inmediata. Esta justificación se utilizó recientemente en los Estados Unidos al realizar un asesinato selectivo del mayor general iraní Qasem Soleimani, el 2 de enero de 2020. Sin embargo, la inteligencia utilizada para determinar esta amenaza inminente no se ha divulgado al público, lo que causa dudas internacionales sobre la justificación de esta fuerza. .

Expansión de las zonas de conflicto y el estado de guerra.
A diferencia de los conflictos tradicionales que tienen combates restringidos a ubicaciones geográficas, el surgimiento de drones armados ha extendido los campos de batalla. En teoría, un país podría usar un avión no tripulado para llevar a cabo un asesinato selectivo contra alguien que consideran una "amenaza inmediata" en cualquier parte del mundo. Esto podría incluir el uso de la fuerza militar sin el conocimiento y la aprobación previa de la nación anfitriona para intentar resolver el problema. Del mismo modo, esto podría incluir el empleo de la fuerza militar (dron armado) contra otra nación cuando no se haya declarado un estado de guerra. Esto ocurrió con el asesinato selectivo de Soleimani, donde Estados Unidos actuó contra Irán dentro de los límites de Irak. Mientras que Estados Unidos había estado realizando misiones de combate en este país, lo había estado haciendo contra el Estado Islámico en Irak y Siria (ISIS). Esta rápida transición para atacar a un líder militar de otro país presenta preocupaciones importantes.

El concepto de combatientes ha aumentado con la expansión del campo de batalla. A diferencia de los conflictos anteriores en los que los que desempeñaban funciones de apoyo como el reclutamiento y la propaganda estaban en gran medida protegidos contra el daño, con el uso de drones, estos individuos pueden ser atacados y eliminados. En las operaciones de EE. UU. en Afganistán, los capos de la droga locales fueron el objetivo de proporcionar financiamiento para los talibanes sin desempeñar un papel activo en las hostilidades. Esto hace algún uso para los drones, esencialmente el trabajo policial. Los aviones no tripulados se han utilizado cuando sería demasiado peligroso para las fuerzas policiales tradicionales y políticamente inaceptable el uso de aviones no tripulados policiales para matar de esta manera. [Xvi] Por lo tanto, vemos que los asesinatos selectivos superan el alcance de las leyes de guerra aceptadas.

La proporcionalidad y el conteo de los muertos. El derecho de la guerra exige proporcionalidad en el riesgo para los civiles al atacar objetivos militares. Dado que los objetivos de los drones a menudo son individuos solteros, se hace difícil determinar qué nivel de víctimas civiles son realmente aceptables. El gobierno de Obama eludió este problema al suponer que cualquier hombre en edad militar que rodeara al objetivo previsto también era combativo a menos que la inteligencia tuviera evidencia de lo contrario. [Xvii] Pero estos hombres no fueron los objetivos del ataque y la comunidad de inteligencia no sabía qué habían hecho o tenían la intención de hacer. [xviii]

Listas de asesinatos secretos. La existencia misma de listas secretas de asesinatos debería ser éticamente preocupante. Si el liderazgo militar de una nación identificara objetivos de valor militar, se podría decir que es una preocupación relativamente baja de parcialidad política. Sin embargo, los políticos a menudo participan en la creación y aprobación de estas listas de "matar o capturar", y rara vez se utiliza la captura. Esta participación política desdibuja las líneas entre los drones que se utilizan para asesinatos selectivos y asesinatos. En palabras de Casey-Maslen, "Con demasiada frecuencia, los asesinatos selectivos por parte de los estados, ya sea utilizando drones u otros medios, se parecen más bien a cruzar nombres de una lista de éxitos de Ma fi a". [Xix] Con los gobiernos que desean proteger sus fuentes de inteligencia, son reacios a divulgar la información que podría demostrar que el ataque fue realmente un asesinato selectivo justificado. Este parece ser el caso del reciente asesinato selectivo del mayor general Soleimani. Con la falta de transparencia, el uso de drones armados puede aumentar el riesgo de fracaso estratégico debido al uso de la guerra de información y propaganda por parte del enemigo a raíz de las victorias tácticas.

Impulsa la guerra asimétrica. Si bien las victorias tácticas de los drones están fuera de toda duda, hay preguntas importantes sobre su valor estratégico. Las organizaciones terroristas que tienen a sus líderes asesinados rutinariamente por aviones no tripulados parecen tener pocos problemas para encontrar reemplazos. Con los contraataques contra aviones no tripulados que causan poco daño a los militares que lo operan, es mucho más probable que los terroristas participen en atentados suicidas y ataques contra civiles debido a su mayor impacto estratégico. De esta manera, los drones pueden presentar un "objetivo de endurecimiento" tal que está impulsando a las fuerzas enemigas a participar exactamente en los tipos de ataques terroristas que los drones pretendían prevenir. [Xx]

Conclusión

El mundo continúa viendo un crecimiento en el uso de drones armados. Dado que varios países buscan activamente adquirir y mejorar la tecnología militar existente y los drones comerciales se vuelven más fáciles de usar como arma, este será un sistema de armas que continúa desafiando nuestra comprensión y aplicación de las leyes de la guerra. Si bien la tecnología de drones sin duda ofrece ventajas para participar en la guerra en el espíritu de jus in bello, la aplicación actual de los drones y los conceptos cambiantes de lo que es y no es la guerra amenaza dramáticamente el espíritu de jus ad bellum.

Las generaciones futuras tendrán el desafío de restringir esta tecnología al uso legal en un campo de batalla restringido y evitar la tentación de usar esta tecnología de una manera que pueda aumentar la probabilidad de conflictos importantes. Con la forma en que se libró la "guerra contra el terrorismo" en las últimas dos décadas, volver al estado de mayor vacilación para utilizar la fuerza militar sobre otras soluciones diplomáticas presenta un desafío importante. La prohibición mundial de esta tecnología parece poco probable.

Al final, los drones no alteraron significativamente los conceptos dentro de las leyes de la guerra, sino que solo aumentaron su importancia. Esta tecnología no impacta el objetivo fundamental de jus in bello, sino que solo hace realidad los objetivos de apuntar con precisión a las fuerzas militares y realmente limitar el daño colateral de la guerra. Los drones no afectaron el espíritu del uso de la fuerza militar en jus ad bellum, sino que solo aumentaron el desafío de tratar con enemigos que no están claramente definidos como actores del estado nación. Seremos un desafío como sociedad para volver a los conceptos tradicionales de guerra y restringir el uso de esta tecnología a las situaciones limitadas en las que otros métodos no violentos no pueden lograr los objetivos finales deseados.


Referencias

Akande, D., ‘Drone strikes: ethics and laws of 21st century warfare’, (Oxford Martin School, 27 February 2014), https://www.youtube.com/watch?v=QbLbelvj0H8 (Accessed: 24 January 2020).

Annis, F. C., ‘Technological Negation of Human Sexual Dimorphism: Leveraging Technology to Bring Non-Battle Injury Risk Closer to Parity Between the Sexes’, Law Enforcement & Security Consulting, (2019), http://lesc.net/blog/technological-negation-human-sexual-dimorphism-guest-post-franklin-c-annis-edd (Accessed: 18 January 2020).

Becker, J. & Shane, S., ‘Secret ‘Kill List’ Proves a Test of Obama’s Principles and Will’, (New York Times, 29 May 2012). https://www.nytimes.com/2012/05/29/world/obamas-leadership-in-war-on-al-qaeda.html?_r=1&pagewanted=all (Accessed: 20 January 2020).

Casey-Masien, S., ‘Pandora’s box? Drone strikes under jus ad bellum, jus in bellow, and international human rights law’, (International Review of the Red Cross, 94 (886) Summer 2012, pp. 597-625).

Connor, R., ‘The Predator, a Drone That Transformed Military Combat’, (Smithsonian National Air and Space Museum, 9 March 2018) https://airandspace.si.edu/stories/editorial/predator-drone-transformed-military-combat (Accessed: 18 January 2020).

Daso, D. A., Architects of American Air Supremacy: General Hap Arnold and Dr. Theodore Von Karman (Forest Grove: University Press of the Pacific, 2002).

General Atomics Aeronautical, ‘Predator B RPA’, http://www.ga-asi.com/predator-b (Accessed 18 January 2020).

Hopkins, N., ‘Afghan Civilians Killed by RAF Drone’ (Guardian, 5 July 2011). https://www.theguardian.com/uk/2011/jul/05/afghanistan-raf-drone-civilian-deaths (Accessed: 18 January 2020).

Parsch, A., ‘RQ-2’, (Directory of U.S. Military Rockets and Missiles), http://www.designation-systems.net/dusrm/app2/q-2.html (Accessed: 20 January 2020).

Raindog Films, ‘Eye in the Sky’, (2015)

Shifton, J., ‘A Brief History of Drones’, (The Nation, 7 February 2020), https://www.thenation.com/article/brief-history-drones/ (Accessed: 20 January 2020).

Terdiman, D., ‘The History of the Predator, the Drone that Changed the World (Q&A)’, (CNet, 20 September 2014), https://www.cnet.com/news/the-history-of-the-predator-the-drone-that-changed-the-world-q-a/ (Accessed: 19 January 2020).

Trevithick, J., ‘Secret Hellfire Missile with Sword-Like Blades Made Mysterious Strike On Terror Leader In Syria’, (The War Zone, 9 May 2019), https://www.thedrive.com/the-war-zone/27917/secret-hellfire-missile-with-sword-like-blades-made-mysterious-syria-strike-on-terror-leader (Accessed: 18 January 2020).

‘US Hellfire Missile Orders, FY 2011-2018’, (Defense Industry Daily, 25 February 2019) http://www.defenseindustrydaily.com/US-Hellfire-MissileOrders-FY-2011-2014-07019/ (Accessed: 18 January 2020)

Walzer, M., ‘Is the Military Use of Drones Ethically Defensible’, (Berkley Center, 19 March 2013), https://www.youtube.com/watch?v=Pc2kOMJQJoQ (Accessed: 20 January 2020).

Woods, C. & Lamb, C., ‘CIA tactics in Pakistan include targeting rescuers and funerals’, Bureau of Investigative Journalism, 4 February 2012, https://www.thebureauinvestigates.com/stories/2012-02-04/cia-tactics-in-pakistan-include-targeting-rescuers-and-funerals (Accessed 18 January 2020).

Woody, C., ‘Congress may Repeal the Post-9/11 Act the US Military Used to Justify the Fight Against ISIS’, (Business Insider, 29 January 2017), https://www.businessinsider.com/a-bill-to-repeal-the-aumf-just-passed-2017-6 (Accessed 19 January 2020).


Notas al final

[i] D. A. Daso, Architects of American Air Supremacy: General Hap Arnold and Dr. Theodore Von Karman (Forest Grove: University Press of the Pacific, 2002).


[ii] R. Connor, ‘The Predator, a Drone That Transformed Military Combat’, (Smithsonian National Air and Space Museum, 9 March 2018) https://airandspace.si.edu/stories/editorial/predator-drone-transformed-military-combat (Accessed: 18 January 2020).


[iii] F.C. Annis, ‘Technological Negation of Human Sexual Dimorphism: Leveraging Technology to Bring Non-Battle Injury Risk Closer to Parity Between the Sexes’, Law Enforcement & Security Consulting, (2019), http://lesc.net/blog/technological-negation-human-sexual-dimorphism-guest-post-franklin-c-annis-edd (Accessed: 18 January 2020).


[iv] General Atomics Aeronautical, ‘Predator B RPA’, http://www.ga-asi.com/predator-b (Accessed 18 January 2020).


[v] N. Hopkins, ‘Afghan Civilians Killed by RAF Drone’ (Guardian, 5 July 2011). https://www.theguardian.com/uk/2011/jul/05/afghanistan-raf-drone-civilian-deaths (Accessed: 18 January 2020).


[vi] ‘US Hellfire Missile Orders, FY 2011-2018’, (Defense Industry Daily, 25 February 2019) http://www.defenseindustrydaily.com/US-Hellfire-MissileOrders-FY-2011-2014-07019/ (Accessed: 18 January 2020)


[vii] S. Casey-Masien, ‘Pandora’s box? Drone strikes under jus ad bellum, jus in bellow, and international human rights law’, (International Review of the Red Cross, 94 (886) Summer 2012, pp. 597-625).


[viii] J. Trevithick, ‘Secret Hellfire Missile With Sword-Like Blades Made Mysterious Strike On Terror Leader In Syria’, (The War Zone, 9 May 2019), https://www.thedrive.com/the-war-zone/27917/secret-hellfire-missile-with-sword-like-blades-made-mysterious-syria-strike-on-terror-leader (Accessed: 18 January 2020).


[ix] Raindog Films, ‘Eye in the Sky’, (2015)


[x] S. Casey-Masien, ‘Pandora’s box? Drone strikes under jus ad bellum, jus in bellow, and international human rights law’


[xi] C. Woods & C. Lamb, ‘CIA tactics in Pakistan include targeting rescuers and funerals’, Bureau of Investigative Journalism, 4 February 2012, https://www.thebureauinvestigates.com/stories/2012-02-04/cia-tactics-in-pakistan-include-targeting-rescuers-and-funerals (Accessed 18 January 2020).


[xii] A. Parsch, ‘RQ-2’, (Directory of U.S. Military Rockets and Missiles), http://www.designation-systems.net/dusrm/app2/q-2.html (Accessed: 20 January 2020).


[xiii] D. Terdiman, ‘The History of the Predator, the Drone that Changed the World (Q&A)’, (CNet, 20 September 2014), https://www.cnet.com/news/the-history-of-the-predator-the-drone-that-changed-the-world-q-a/ (Accessed: 19 January 2020).


[xiv] C. Woody, ‘Congress may Repeal the Post-9/11 Act the US Military Used to Justify the Fight Against ISIS’, (Business Insider, 29 January 2017), https://www.businessinsider.com/a-bill-to-repeal-the-aumf-just-passed-2017-6 (Accessed 19 January 2020).


[xv] J. Shifton, ‘A Brief History of Drones’, (The Nation, 7 February 2020), https://www.thenation.com/article/brief-history-drones/ (Accessed: 20 January 2020).


[xvi] M. Walzer, ‘Is the Military Use of Drones Ethically Defensible’, (Berkley Center, 19 March 2013), https://www.youtube.com/watch?v=Pc2kOMJQJoQ (Accessed: 20 January 2020).


[xvii] J. Becker & S. Shane, ‘Secret ‘Kill List’ Proves a Test of Obama’s Principles and Will’, (New York Times, 29 May 2012). https://www.nytimes.com/2012/05/29/world/obamas-leadership-in-war-on-al-qaeda.html?_r=1&pagewanted=all (Accessed: 20 January 2020).


[xviii] M. Walzer, ‘Is the Military Use of Drones Ethically Defensible’


[xix] S. Casey-Masien, ‘Pandora’s box? Drone strikes under jus ad bellum, jus in bellow, and international human rights law’, p. 634.


[xx] D. Akande, ‘Drone strikes: ethics and laws of 21st century warfare’, (Oxford Martin School, 27 February 2014), https://www.youtube.com/watch?v=QbLbelvj0H8 (Accessed: 24 January 2020).