Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

martes, 7 de enero de 2025

Teoría de la guerra: IA y el riesgo de la sorpresa

La singularidad de la IA y el creciente riesgo de sorpresa

Lecciones de los procesos de aprendizaje estratégico y operativo de las Fuerzas de Defensa de Israel (FDI), 2014-2019


Meir Finkel || Centro Dado

(Este artículo apareció originalmente en PRISM, vol. 8, n.º 4 )

Durante décadas, los académicos han reflexionado sobre la probabilidad y el efecto de que las computadoras superen la inteligencia humana, a menudo denominada la singularidad. Para los militares, la singularidad de la inteligencia artificial (IA) será un arma de doble filo. Debemos tratar de lograrla y emplearla, al tiempo que negamos a nuestros adversarios la oportunidad de hacerlo. Cuando surja la singularidad de la IA, es probable que tenga profundas implicaciones para las capacidades tácticas, así como para la toma de decisiones estratégicas y operativas. Los adversarios de Estados Unidos, incluidos tanto China como, en menor medida, Rusia, tratarán de aprovechar las nuevas posibilidades que ofrece la singularidad de la IA. Este artículo se centra en contrarrestar estos efectos. Si bien las tecnologías emergentes son novedosas, la necesidad de adaptación es perenne. Basaré mis recomendaciones en los recientes avances en la “máquina de aprendizaje” de las Fuerzas de Defensa de Israel (FDI), que tenían como objetivo mejorar su capacidad para hacer frente a la evolución acelerada de sus adversarios en Oriente Medio.

En su estudio “La singularidad del campo de batalla: inteligencia artificial, revolución militar y el futuro poder militar de China”, Elsa B. Kania identificó varias capacidades que los chinos buscan mejorar mediante el aprovechamiento de la IA, entre ellas “la fusión de datos, el procesamiento de la información y el análisis de inteligencia habilitados por la IA; los juegos de guerra, la simulación y el entrenamiento; la defensa, la ofensiva y el mando en la guerra de la información; y el apoyo inteligente a la toma de decisiones de mando”. Señala que algunos pensadores chinos anticipan una “'singularidad' en el campo de batalla, en la que la cognición humana ya no puede seguir el ritmo de la velocidad de la toma de decisiones y el ritmo del combate en la guerra futura” y que “el EPL podría demostrarse menos adverso a la perspectiva de sacar a los humanos 'de la trama' para lograr una ventaja”. Esta evolución podría presentar un desafío estratégico para Estados Unidos, sostiene. Kania insta al ejército estadounidense a prepararse para un futuro en el que Estados Unidos ya no pueda disfrutar de una clara ventaja tecnológica, especialmente centrándose en “los factores humanos y la capacidad organizativa que son determinantes críticos de una innovación exitosa en defensa”. 1

Aunque parezca que la singularidad de la IA afectará principalmente a las capacidades militares a nivel táctico, a través de enjambres robóticos por ejemplo, Kania afirma que “… el EPL puede centrarse en aprovechar la IA para mejorar el mando y el control a nivel operativo e incluso estratégico de la guerra mediante asistencia inteligente para la toma de decisiones de mando, buscando incluso permitir la toma de decisiones a la velocidad de las máquinas”.

Este artículo se centra en los “factores humanos y la capacidad organizativa” desde una perspectiva israelí. Aunque no sabemos si se logrará la singularidad de la IA, ni cuándo ni quién lo hará, presentaré un enfoque de los procesos de aprendizaje estratégico y operativo que pueden acelerar la capacidad tanto de explotar la IA como de minimizar sus efectos cuando la utilicen los adversarios. Luego abordaré las medidas destinadas a responder mejor a la creciente posibilidad de sorpresas tecnológicas y doctrinales basadas en la IA.

Las recomendaciones que se presentan aquí se basan en nuevas prácticas israelíes desarrolladas como parte de la competencia de aprendizaje entre las Fuerzas de Defensa de Israel y sus adversarios entre 2014 y 2019. No fueron diseñadas para abordar directamente la singularidad de la IA, pero pueden ofrecer información sobre el aprendizaje militar individual y organizacional y las capacidades de contraataque.

La “máquina de aprendizaje” de las FDI

La necesidad de adaptación y cambio de las FDI ha aumentado significativamente en los últimos años debido a cuatro campañas de mediana escala (2006, 2008-09, 2012, 2014) y numerosos enfrentamientos de pequeña escala contra redes de aprendizaje “híbridas”, que en los últimos años incluyen a Irán, Hezbolá, el régimen sirio (apoyado por Rusia), Hamás, la Yihad Islámica (en Gaza), el Estado Islámico (en el Sinaí), Jabhat el-Nusra (en los Altos del Golán sirios) y otros. El ritmo frenético del cambio exigió evaluaciones estratégicas rápidas y el desarrollo de conceptos operativos (para el teatro norte), una rápida toma de decisiones estratégicas y operativas antes de las operaciones en todos los teatros, y un ritmo más rápido de aprendizaje y adaptación de las FDI a los nuevos métodos tácticos y capacidades tecnológicas empleados por los adversarios de Israel.

Esos desafíos obligaron a las FDI a desarrollar prácticas innovadoras de aprendizaje y adaptación, cuyos principales elementos fueron:

  • Un acelerador de aprendizaje estratégico y operativo: el Centro Dado 2  para Estudios Militares Interdisciplinarios;
  • Un esfuerzo educativo centrado en el aprendizaje y la capacidad de cambio que enseña el Enfoque de Aprendizaje de Diseño;
  • Escenarios de entrenamiento que llevan la incertidumbre al límite y exigen adaptación en tiempo real, desde los líderes de pelotón hasta el Jefe del Estado Mayor de las FDI;
  • Un sistema de lecciones aprendidas en tiempos de guerra que exige un tiempo de respuesta de 24 horas para cualquier cambio, ya sea en la organización, los procedimientos o el entrenamiento;
  • Cambios organizativos que impulsan el desarrollo del conocimiento, incluido el Comando de Profundidad y la Brigada de Comando, el aparato cibernético, la nueva división de innovación y experimentación J5 y una unidad experimental multidominio.

El Centro Dado como “acelerador” del aprendizaje estratégico y operativo

La misión del Centro Dado para Estudios Militares Interdisciplinarios, que comandé desde junio de 2014 hasta junio de 2019, es “Ser el experto de las FDI en procesos de aprendizaje y desarrollo de conocimientos a nivel estratégico y operativo, desarrollar el campo, asimilarlo en las FDI y ayudar a los órganos de las FDI en su implementación”. Pertenece a las FDI J7/J3 y se fundó después de la Segunda Guerra del Líbano (2006), con sus raíces en el Instituto de Investigación de Teoría Operativa (OTRI). En los años inmediatamente posteriores a la guerra de 2006, se centró en la educación de oficiales superiores en el pensamiento sistémico. En 2014 comenzó a albergar procesos de aprendizaje a nivel estratégico y operativo, basados ​​a partir de 2015 en el Enfoque de Diseño revisado que formuló la FDI.

Mientras que el enfoque de diseño implementado por el ejército de los EE. UU. en los últimos años se centra en el nivel operativo y comienza por identificar los cambios “externos” en la realidad, el enfoque israelí se centra tanto en los niveles estratégico como operativo y dedica una atención sustancial al reconocimiento de las “brechas de relevancia” del lado azul antes de buscar la mejor manera de avanzar. 3 , 4

En el centro del proceso de aprendizaje se encuentra la suposición de que el concepto preexistente o actual es inadecuado para el desafío emergente. Por lo tanto, en todo proceso de aprendizaje, el primer paso es examinar críticamente la brecha entre nuestro concepto, organización y doctrina actuales y la realidad. En otras palabras, el proceso no comienza con el análisis directo del lado rojo, un enfoque profundamente arraigado en el ADN de los oficiales militares, sino con un análisis de los desafíos del lado azul al reconocer la necesidad de adaptarse a los cambios realizados por el lado rojo (o cambios en la comunidad internacional, la tecnología militar, etc.). Esto se inicia cuestionando los supuestos y creencias básicos del comandante o de la organización; cómo se manifiestan en nuestros patrones de acción, nuestra estructura organizacional y nuestros patrones de comportamiento y aprendizaje. Solo después de que el comandante y su personal reconozcan esta brecha, puede comenzar un proceso de aprendizaje destinado a crear un concepto operativo relevante o un concepto futuro.

Sobre la base del análisis del sistema y del análisis crítico estructurado descritos anteriormente, el proceso continúa buscando “potenciales”: las posibilidades positivas y negativas incorporadas en un sistema emergente y sobre las cuales sería prudente actuar para influir en ellas a nuestro favor para la creación del sistema futuro deseado. Los potenciales pueden presentarse en diversas formas: vulnerabilidades enemigas, capacidades tecnológicas emergentes, posibles tratados internacionales y otros. Sobre la base de nuestra nueva y mejorada comprensión de los desafíos, la adaptación a este punto y los potenciales que identificamos, se diseña una estrategia preliminar. El siguiente paso es la autocrítica/contraste, en la que determinamos las amenazas potenciales a la estrategia emergente. Estas pueden ser externas (adversarios) o internas (objeciones dentro de las FDI, por ejemplo).

Tras la evaluación y la consolidación, la estrategia preliminar se convierte en la estrategia aprobada. El proceso continúa entonces con el desarrollo de un concepto de campaña operacional para lograr la estrategia deseada. En muchos casos, el resultado va más allá de las directrices para la planificación posterior a la fase de diseño, sino que también incluye cambios organizativos en el cuartel general, un reenfoque de la inteligencia y cambios en la infraestructura de combate. Tres aspectos específicos de este proceso son especialmente dignos de mención: 1) Cada proceso es único y está hecho a medida según el problema, la organización y el comandante; 2) El proceso exige un aprendizaje continuo de doble ciclo: sobre el problema en cuestión y sobre las metodologías de pensamiento empleadas durante el proceso; 3) A medida que los comandantes de las FDI llevan a cabo procesos de diseño en el contexto de la preparación para la guerra inmediata, el proceso requiere que el comandante "divida" su personalidad entre un liderazgo basado en la jerarquía que intenta convencer a los subordinados de la validez de los planes/capacidades actuales, y un proceso de mente abierta que contiene desafíos de liderazgo incómodos, como admitir que los planes y capacidades actuales pueden haber perdido su relevancia.

En los últimos años, los comandantes llevaron a cabo cada vez más procesos basados ​​en el enfoque de diseño con la ayuda del Centro Dado (por ejemplo, se desarrolló un enfoque holístico para el teatro de operaciones del norte, la defensa fronteriza de los Altos del Golán, la defensa fronteriza entre Israel y el Líbano, la Franja de Gaza, el EI en el Sinaí, el frente interno y la futura guerra terrestre). 5  En esos procesos, los generales de las FDI recibieron la ayuda de los expertos en metodología de diseño del Centro Dado, que se centraron en sus necesidades y en su capacidad de simulación de guerra. El Centro Dado extrajo lecciones de cada proceso para mejorar los esfuerzos futuros. El ritmo acelerado de los procesos de diseño no solo ayudó a los comandantes a desarrollar soluciones pertinentes para sus desafíos emergentes, sino que también creó un “músculo de diseño” mejor y más rápido en sus subordinados y en los estados mayores que participaron en el proceso. 6

Esfuerzo educativo centrado en el aprendizaje y la capacidad de cambio

En base a la creciente comprensión dentro de las FDI de la necesidad de mejorar el pensamiento estratégico y operativo, así como las habilidades de aprendizaje, desde 2014 se ha puesto en marcha un esfuerzo multifacético. Comenzó con el Curso de Brigadieres dirigido por el Comandante de los Colegios Militares, que enseñaba diseño utilizando una pedagogía de autoexploración. Basándose en este curso, el Centro Dado creó un documento que fue publicado en 2015 por el J7 de las FDI como la nueva forma formal en que las FDI llevan a cabo procesos de aprendizaje destinados a desarrollar conceptos operativos.

Desde 2015 se han realizado muchas adaptaciones en la formación de oficiales, como consecuencia de la creciente necesidad de acelerar los procesos de aprendizaje y basándose en la metodología del enfoque de diseño formal. Estas incluyen un cambio en el Curso de Coroneles del Centro Dado, destinado a educar a los titulares de puestos específicos en el Cuartel General (GHQ), los comandos regionales, los servicios y las ramas que lideran o participan en los procesos de diseño, desde la planificación hasta el diseño; la reorganización de 2015 en el plan de estudios del Colegio de Defensa Nacional centrado en el diseño principalmente a través de la experiencia personal adquirida por los participantes del curso mediante simulaciones; la enseñanza de los conceptos básicos del enfoque de diseño en el Colegio de Comando y Estado Mayor tanto para los comandantes de batallón y escuadrón como para los oficiales de estado mayor en el rango OF-4 a partir de 2018. El Curso de Brigadieres mencionado anteriormente todavía se está llevando a cabo. En 2018, el Curso de Comandantes de División también comenzó a enseñar parte del proceso de diseño. En conjunto, estos representan un esfuerzo educativo integral dentro de las FDI para mejorar su capacidad de aprendizaje organizacional.

Escenarios de entrenamiento que llevan la incertidumbre al límite: la “vacunación” contrasorpresa

Mis recomendaciones sobre cómo abordar la incertidumbre en el campo de batalla y gestionar el riesgo de sorpresa tecnológica y doctrinal provienen de dos fuentes: el enfoque teórico desarrollado en mi libro Sobre la flexibilidad , que trata de la recuperación de la sorpresa tecnológica y doctrinal; 7 y de las prácticas de educación y entrenamiento de las FDI que se centran en la mejora de la flexibilidad.  

En On Flexibility  se examinó cómo los ejércitos se han recuperado rápidamente de las sorpresas tecnológicas y doctrinales mediante el uso de una variedad de habilidades que se incluyen en el encabezado general de flexibilidad. Estas habilidades también son válidas aquí, ya que la mayoría de las implicaciones tácticas de la IA (tal como las define Kania: vehículos aéreos no tripulados inteligentes e inteligencia de enjambre; vehículos de superficie no tripulados inteligentes; vehículos terrestres no tripulados inteligentes; UUV autónomos; inteligencia de misiles) pueden dar lugar a los mismos tipos de sorpresas. 8 

La flexibilidad se construye sobre cuatro estratos. El primero es conceptual y doctrinal. La flexibilidad conceptual y doctrinal se produce cuando los altos funcionarios civiles y los oficiales militares crean una atmósfera organizativa que anima a los comandantes de menor rango a plantear ideas que desafíen la doctrina oficial. Los oficiales (y los soldados y las mujeres) que presentan ideas originales aumentan el número de opciones, lo que permite al ejército, tomado por sorpresa, modificar su doctrina y sus tácticas. Una doctrina basada en este enfoque presenta una visión equilibrada de todas las formas de guerra y reduce el peligro de quedarse atascado en una rutina dogmática. Aquí quiero destacar que, debido al futuro entorno de campo de batalla disputado previsto en los conceptos militares occidentales actuales, supongo que las fuerzas militares estadounidenses y de otros países tendrán que "inventar" el último 30 por ciento de su doctrina en el campo de batalla, porque todo lo que poseen al caminar será cuestionado.

El segundo estrato es organizativo y tecnológico: unidades de armas combinadas, redundancia de capacidades para enfrentar grandes desafíos operativos y versatilidad y capacidad de cambio tecnológica.

El tercer estrato es la flexibilidad en el mando y las habilidades cognitivas, que es de suma importancia en las organizaciones militares modernas, a pesar de la excesiva dificultad de su implementación. La flexibilidad mental es un rasgo cognitivo adquirido por los comandantes que han aprendido y han operado en entornos que estimulan el cuestionamiento y la creatividad. En las condiciones volátiles del campo de batalla, permite al comandante adaptarse rápidamente y mantener el ingenio. El mando flexible espera que los comandantes subalternos tomen la iniciativa. El amplio margen para la iniciativa debería permitirles encontrar soluciones originales en situaciones inesperadas y recibir el respaldo de sus superiores. La flexibilidad conceptual y doctrinal es la condición sine qua non para el desarrollo de este estrato, de lo contrario las condiciones no serán propicias para la elasticidad mental y los métodos de mando y control descentralizados.

El 6 de octubre de 1973, durante el Yom Kippur, Egipto y Siria lanzaron un ataque sorpresa coordinado contra Israel. En la imagen se ve a un equipo médico de las FDI evacuando a un soldado herido del campo de batalla. (Fuerzas de Defensa de Israel, 11 de octubre de 2005)

El cuarto estrato es un mecanismo rápido de aprendizaje de lecciones en tiempos de guerra (ver más abajo).

Las FDI ejercitan la flexibilidad cognitiva en casi todos los niveles. Me centraré en los más relevantes. En los ejercicios de batallón y brigada, la misión puede cambiar al comienzo del ejercicio, el fracaso en el cumplimiento de las misiones es una parte integral del ejercicio y la sorpresa es la norma. Es importante señalar que los comandantes de batallón y brigada de las FDI experimentan desafíos similares en su actividad operativa en Gaza, los Altos del Golán y la frontera libanesa. La combinación de entrenamiento y experiencia operativa genera resistencia de mando que también debería ser válida para la sorpresa tecnológica en la guerra. En los ejercicios de división existen todos los componentes mencionados anteriormente, con el agregado de otro componente: un mecanismo de lecciones aprendidas en tiempos de guerra.

En el nivel del Cuartel General se estableció en 2014 un nuevo tipo de ejercicio, además del “ejercicio anual de las FDI”. Un “ejercicio de reflexión” anual capacita al Jefe del Estado Mayor (el comandante de las FDI) y a su foro de reflexión en tiempos de guerra. En estos ejercicios (que no involucran tropas) el comandante de las FDI se enfrenta al desafío del “diseño en tiempos de guerra” (esfuerzos acelerados para desarrollar un concepto relevante de operaciones para el escenario dado). Los ejercicios incluyen escenarios sorpresa que sirven como una “vacunación mental” contra sorpresas estratégicas del tipo que sufrieron las FDI en la Guerra de Yom Kippur en 1973.

Es importante señalar que ambos aspectos de las prácticas de las FDI que se han presentado anteriormente se basan en su cultura estratégica, que incluye una relativa apertura a la discusión de las lagunas conceptuales y de relevancia organizativa, y un entendimiento común de que el objetivo de los ejercicios es aprender, no ganar, y que para aprender, el alumno tiene que fracasar, sorprenderse y ser desafiado mentalmente. Cualquiera de las prácticas mencionadas anteriormente debe adaptarse naturalmente a la cultura del estamento militar que la adopte.

También es importante señalar que las FDI utilizan un sistema de evaluación cognitiva basado en computadora que evalúa y otorga puntajes a la capacidad de los cadetes en el Curso Básico de Oficiales y en el Curso de la Escuela de Comando y Estado Mayor de Alon para reconocer un cambio en el comportamiento y las habilidades del enemigo (sorpresas tecnológicas y doctrinales) y responder a ellos. Las personas que experimentan dificultades en este sentido (u otras) pasan por un entrenamiento cognitivo enfocado para desarrollar esas habilidades. 9

Un sistema basado en lecciones aprendidas en tiempos de guerra

El cuarto estrato del enfoque de flexibilidad de las FDI es el mecanismo que facilita el aprendizaje rápido y la rápida circulación de las lecciones, de modo que todo el sistema militar esté al día de las sorpresas y los desafíos y sea informado de sus soluciones. Este estrato tiene en cuenta la necesidad de vincular el pasado, el presente y el futuro, y de confiar en medidas de comunicación que permitan un flujo rápido de información.

La industria armamentística es otro sector que puede proporcionar una rápida respuesta que permita recuperarse de las sorpresas tecnológicas. Las estrechas relaciones de trabajo entre las fuerzas armadas israelíes y la industria armamentística pueden contrarrestar las sorpresas modificando el equipo existente incluso mientras la batalla todavía está en curso.

El procesamiento de lecciones durante el combate fue empleado por primera vez por el Comando de Fuerzas Terrestres antes de la Segunda Guerra del Líbano (2006), 10  luego desarrollado y empleado y mejorado significativamente durante la Operación “Plomo Fundido” en Gaza (2008-9). 11  Como parte de este esfuerzo se publicó un manual de campo de “aprendizaje durante el combate”; se agregaron “eventos de aprendizaje” a la rutina diaria en tiempos de guerra del cuartel general de la división (como parte de las tácticas, técnicas y procedimientos de la división); se agregaron “oficiales de aprendizaje” encargados de preparar los eventos de aprendizaje a la Tabla de Organización y Equipo del personal del cuartel general de la brigada y la división; se llevó a cabo un entrenamiento específico para preparar a estos oficiales; y se agregó una nueva tarea de entrenamiento a los ejercicios de la división: identificar las nuevas armas y tácticas insertadas por los planificadores de ejercicios y desarrollar soluciones. Cuando comienza una operación, el Comando de Fuerzas Terrestres abre un “centro de aprendizaje en tiempos de guerra” que extrae información de las unidades, la procesa y envía los nuevos descubrimientos y soluciones tecno-tácticas a las unidades dentro de las 24 horas.

Es cierto que la capacitación de los comandantes en este mecanismo de aprendizaje ha sido desigual en términos de su eficacia en los últimos años, pero es un esfuerzo continuo.

Cambios organizacionales que impulsan el desarrollo del conocimiento

Algunos de los desafíos que las FDI experimentaron en los últimos años se derivan de capacidades emergentes o supuestamente deberían ser superadas por ellas, las cuales deben explorarse para comprenderse mejor antes de su plena explotación. Por lo tanto, algunos de los cambios organizacionales en los últimos años han tenido un carácter exploratorio. El entonces Jefe de Estado Mayor Benny Gantz estableció el Comando de Profundidad en 2012, y su sucesor Gadi Eizenkot estableció la Brigada de Comando en 2016. Ambas organizaciones se encargaron de desarrollar conceptos y capacidades para el empleo de fuerzas de las FDI en la profundidad del enemigo, que las FDI consideran más relevante que antes. Eizenkot se ocupó extensamente de los cambios organizacionales necesarios tanto para mitigar los riesgos como para explotar los beneficios potenciales en el dominio cibernético. Esto comenzó en 2016 con el nombramiento del primer Jefe de Estado Mayor Cibernético de las FDI como un primer paso (dentro de la oficina del Jefe de Estado Mayor Adjunto). Las discusiones sobre la necesidad de una rama cibernética dieron como resultado el establecimiento de una nueva División de Defensa Cibernética en 2018 dentro de la recién nombrada Rama de Comunicaciones y Cibernética. Las capacidades cibernéticas ofensivas siguen estando a cargo de la Dirección de Inteligencia. El camino organizativo de las FDI en el ámbito cibernético aún no ha llegado a su destino final.

En marzo de 2019, el teniente general Aviv Kochavi, actual jefe del Estado Mayor, anunció el establecimiento de una nueva división de innovación y experimentación dentro del J5, y una “unidad multidominio” destinada a explorar nuevos potenciales para las FDI, centrada en una mayor letalidad contra Hezbolá y Hamás. 12

La brigada de paracaidistas de las Fuerzas de Defensa de Israel opera en la Franja de Gaza para encontrar y desactivar los túneles terroristas de la red de Hamás y eliminar su amenaza a los civiles israelíes. (Fuerzas de Defensa de Israel, 20 de julio de 2014)

¿De la experiencia de las Fuerzas de Defensa de Israel a la singularidad de la IA?

El pensamiento de las Fuerzas de Defensa de Israel sobre la guerra futura reconoce el potencial de la IA para su propio uso, pero presta relativamente poca atención a su explotación por los enemigos de Israel y no aborda en absoluto el desafío de la singularidad de la IA. Los esfuerzos actuales encaminados a lograr una “posición de mando superior” en todos los niveles de la guerra se aceleraron en los últimos años para hacer frente a los rápidos cambios en Oriente Medio en los niveles geopolítico, estratégico, operativo y táctico.

Sin embargo, las prácticas israelíes pueden aportar importantes conocimientos sobre el desafío de la IA. En primer lugar, el enfoque en las propias lagunas de relevancia puede fomentar un enfoque más autocrítico, como lo ejemplificó recientemente el comandante del Cuerpo de Marines de Estados Unidos, general David H. Berger, quien emitió una crítica radical de la estrategia anfibia de los marines, “calificando el enfoque actual de trasladar a los marines a tierra a bordo de vehículos anfibios y helicópteros pequeños y lentos como un plan ‘poco práctico e irrazonable’ que se ha encajado en una fuerza que ‘no está organizada, entrenada ni equipada para apoyar a la fuerza naval’ en un combate de alto nivel”. 13  Adquirir el hábito de buscar señales tempranas de disminución de la relevancia ayudará sustancialmente a quienes quieran hacer frente al ritmo creciente de cambios que seguramente impondrá la introducción de la IA en cada vez más campos militares. En segundo lugar, no se sabe si la IA reemplazará las prácticas de toma de decisiones estratégicas y operativas basadas en el ser humano y de qué manera, por lo que mejorar las que existen hoy dará sus frutos.

Hay otras dos recomendaciones en relación con el creciente potencial de sorpresas tecnológicas y doctrinales basadas en la IA. En primer lugar, el concepto amplio de flexibilidad es tan relevante aquí como lo es para las sorpresas derivadas de otros avances tecnológicos. Insertar sorpresas basadas en la IA en los escenarios de entrenamiento puede ayudar no sólo a los preparativos de los comandantes y los estados mayores, sino también a desarrollar una mejor comprensión institucional de la amenaza. En segundo lugar, para hacer frente al desafío de la singularidad de la IA, como ocurre con otras amenazas, se necesitarán contramedidas. Puede que valga la pena considerar el desarrollo de medidas para desorientar el aprendizaje y la toma de decisiones de la IA enemiga mediante nuevos tipos de engaños y guerra de información. Una decisión rápida pero errónea de la IA enemiga puede paralizar su voluntad de emplear sistemas de ayuda a la toma de decisiones basados ​​en la IA en el futuro. El desarrollo de contramedidas puede resultar más fácil y más barato que el desarrollo de una IA ofensiva, como ocurre con los inhibidores de GPS baratos y fáciles de utilizar.

Los investigadores del Dado Center sugirieron una “operación de aprendizaje” limitada al comienzo de una confrontación a gran escala (para evaluar al enemigo y la situación y ajustarse rápidamente antes de enviar la fuerza principal) como una lección de la intervención de las FDI en los túneles ofensivos de Hamás en la Operación “Plomo Fundido”. 14  Aunque esta recomendación no fue adoptada inmediatamente por las FDI, con el alto nivel de incertidumbre en un conflicto futuro con un enemigo que posee capacidades sofisticadas de IA, un enfoque de este tipo sería esencial. Incluso si la propuesta del Dado Center no se adopta per se, algún tipo de mecanismo de aprendizaje de lecciones en tiempo real será esencial si el enemigo emplea la IA en formas nuevas e imprevistas. Las organizaciones adaptables permiten el aprendizaje, a diferencia del patrón de las organizaciones burocráticas tradicionales que a menudo matan nuevas iniciativas organizacionales en la cuna, especialmente en campos nuevos y desconocidos. Esto debe tenerse en cuenta al dar los primeros pasos organizacionales en un mundo potencialmente dominado por la IA.

Conclusión

No hay duda de que la IA tendrá influencia en la guerra y, por lo tanto, en la manera en que las organizaciones militares se desarrollan para utilizar la IA y negar su uso por parte de los adversarios. Es posible que, debido a las diferencias en la cultura y las normas militares, los ejércitos no occidentales tengan menos restricciones para armar y emplear esas tecnologías emergentes. Los ciclos de aprendizaje rápidos, tanto de diseño de fuerzas como de conceptos operativos y lecciones de guerra, serán de gran beneficio para las organizaciones militares que quieran prosperar en un entorno dominado por la IA, especialmente si se quedan atrás en la introducción de la IA. Aunque se basan en su cultura civil y militar única, las prácticas que las FDI desarrollaron en los últimos años en el campo de los mecanismos de aprendizaje para enfrentar mejor a sus adversarios en rápida transformación pueden ayudar a otros ejércitos a pensar en los cambios necesarios para prepararse mejor para el día en que se logre la singularidad de la IA. Algunos de estos cambios pueden estar en el corazón mismo de la cultura militar. PRISM 

:Notas

1  Elsa B. Kania, Battlefield Singularity: Artificial Intelligence, Military Revolution, and China's Future Military Power. Noviembre de 2017. Centro para una Nueva Seguridad Estadounidense.

2  Lleva el nombre del noveno jefe del Estado Mayor de las FDI, David Elazar (apodado Dado), quien comandó las FDI en la Guerra de Yom Kippur.

3  Esta idea (y término) fue desarrollada por Zvi Lanir, un ex investigador de inteligencia de la dirección de inteligencia (Aman), cuya comprensión después de la guerra de Yom Kippur lo llevó a centrarse en las propias fallas y bloqueos conceptuales y organizacionales en lugar de en el análisis del enemigo.

4  Cuartel General, Departamento del Ejército. ATP 5-0.1 - Metodología de diseño del ejército. Julio de 2015. Washington, DC. El proceso comienza con “La elaboración de un entorno operativo [que] implica el pensamiento crítico y creativo por parte de un grupo para construir modelos que representen las condiciones actuales del entorno operativo (estado actual)… (P. 1-4). “Un entorno operativo es un compuesto de las condiciones, circunstancias e influencias que afectan el empleo de capacidades e influyen en las decisiones del comandante”. (P. 3-1)

5  Sobre el último, véase: Eran Ortal, 2019. “We're Confused, Too A Historical Perspective for Discussion of “Land Ahead””. Military Review marzo-abril de 2019: 84-98.  

6  Es importante señalar que se están haciendo esfuerzos, específicamente bajo el nuevo jefe del Estado Mayor, el Teniente General Aviv Kochavi, para acelerar no sólo los procesos de diseño orientados al concepto operacional, sino también los procesos de diseño de la fuerza. La fase de diseño del próximo plan plurianual de las FDI fue esencialmente otro "curso de diseño de alto nivel" para los altos mandos de las FDI.

7  Meir Finkel. 2011. Sobre la flexibilidad: recuperación de la sorpresa tecnológica y doctrinal en el campo de batalla. Stanford University Press.

8.  Kania, 22-26.

9  Ran Rimon, “Simulando la sorpresa”, Ms&T Magazine (junio de 2016); Ran Rimon, “El juego de la reflexión”, Ms&T Magazine (enero de 2018).

10  Steven Mains y Gil Ad Ariely. 2009. Aprendiendo mientras se lucha: Gestión del conocimiento operativo que marca la diferencia. Prism 2 (s): 165-175.

11  Gil Ad Ariely, “Aprendiendo mientras se lucha en la Operación 'Plomo Fundido'”, Maarachot IDF Journal, no. 425, 12–21.

12  Azulai Y. (Globes). 2019a. 2019 19:11. Yuval . El jefe del ejército israelí quiere crear una nueva división de innovación. 18 de marzo. Disponible en https://en.globes.co.il/en/article-idf-seeking-to-set-up-new-innovation-division-1001278593 .   

13  Paul McLeary. 26 de julio de 2019. “Vacas sagradas mueren cuando el comandante de la Marina cambia el rumbo de los anfibios”, defensa de Breaking.

14  Lazar Berman, Yaniv Friedman, “Perfeccionamiento del instrumento: operaciones de aprendizaje al comienzo de las campañas ”, Revista Militar Checa N.º 3/2018. Vol. XXVII (LIX), 9 de septiembre de 2018. Basado en: Meir Finkel, 2014. “Operaciones de aprendizaje al comienzo de la guerra”, Ma'arachot 457: 15-19.

domingo, 29 de septiembre de 2024

Munición merodeadora basada en drones Elbit Systems LANIUS con IA

Elbit Systems LANIUS drone-based loitering munition





El LANIUS, desarrollado por Elbit Systems, es un dron militar de vanguardia diseñado para revolucionar el combate en entornos urbanos. A simple vista, parece un dron más, pero su capacidad lo convierte en una "munición merodeadora" única: puede volar por un área en busca de su objetivo y atacarlo con precisión letal. Este pequeño pero poderoso dispositivo se desplaza con agilidad por calles estrechas y dentro de edificios, lo que lo hace ideal para operaciones en lugares donde las armas convencionales no pueden llegar.

Lo más impresionante del LANIUS es su inteligencia artificial. Este dron es capaz de tomar decisiones rápidas y, gracias a sus avanzados sistemas, puede identificar y diferenciar entre combatientes y civiles, reduciendo el riesgo de daños colaterales. Aunque tiene autonomía para operar, un operador humano siempre está a cargo del último paso: decidir si atacar o no.

Pero LANIUS no solo actúa en solitario. Puede trabajar en enjambres, es decir, en grupos de drones que coordinan sus movimientos para llevar a cabo misiones complejas, como atacar varios objetivos a la vez o asegurar áreas específicas. Ya sea para realizar ataques precisos, recopilar información vital o apoyar a las tropas en tierra, este dron está diseñado para ser una herramienta versátil y mortal.

En un mundo donde el combate en ciudades se vuelve cada vez más común, LANIUS representa el futuro de la guerra: rápido, preciso y capaz de adaptarse a los desafíos del campo de batalla moderno.


El LANIUS de Elbit Systems es una munición merodeadora basada en drones, desarrollada por la empresa israelí Elbit Systems, que está diseñada para mejorar la capacidad de las fuerzas militares en combate urbano y situaciones de combate a corta distancia. A continuación, se explica en detalle:

1. Munición merodeadora basada en drones

  • El LANIUS es lo que se conoce como una munición merodeadora, un tipo de armamento que puede "merodear" o permanecer en el aire durante un tiempo, mientras busca un objetivo para atacar.
  • Funciona como un dron suicida pequeño, lo que significa que tiene la capacidad de identificar, seguir y atacar un objetivo de manera precisa, y luego se destruye en el proceso.


2. Enfoque en el combate urbano

  • Este dron está diseñado específicamente para ser utilizado en entornos urbanos, donde la precisión y la capacidad de obtener información en tiempo real son extremadamente importantes.
  • Puede navegar por terrenos complejos, como edificios o calles estrechas, que suelen ser difíciles de manejar para drones o armas más grandes.


3. Capacidades impulsadas por inteligencia artificial

  • El LANIUS utiliza inteligencia artificial (IA) para identificar y atacar objetivos.
  • Es capaz de mapear su entorno de manera autónoma, es decir, por sí mismo, identificar amenazas y diferenciar entre combatientes (enemigos) y no combatientes (civiles), lo que ayuda a reducir el daño colateral (daños a personas o cosas no involucradas en el conflicto).


4. Alta maniobrabilidad

  • El dron es muy ágil y liviano, lo que le permite operar en espacios confinados, como dentro de edificios o entre calles estrechas.
  • Puede buscar un área rápidamente, lo que lo hace útil tanto para reconocimiento (recopilación de información) como para ataques tácticos en zonas densamente pobladas o complejas.

5. Cargas útiles modulares

  • El LANIUS está equipado con diferentes tipos de cargas útiles, que son los componentes que lleva el dron para cumplir su misión. Esto incluye desde cargas letales (explosivos para atacar al enemigo) hasta sistemas no letales para recoger información.

6. Control humano en la toma de decisiones

  • Aunque el LANIUS puede funcionar de manera autónoma, siempre hay un operador humano que tiene el control final sobre la decisión de atacar, lo que garantiza que se cumplan las normas de combate y los requisitos legales.

7. Capacidad de operar en enjambre

  • El LANIUS puede funcionar solo o en grupo, en lo que se conoce como formaciones en enjambre, donde varios drones trabajan juntos de manera coordinada para llevar a cabo misiones más complejas, como bloquear áreas o atacar múltiples objetivos al mismo tiempo.

8. Flexibilidad de misión

  • Este dron puede adaptarse a diferentes tipos de misiones, como buscar y destruir objetivos, reconocimiento y vigilancia (recolección de información), o adquisición de objetivos (identificación precisa de un objetivo) en áreas donde los drones más grandes o los aviones serían menos efectivos.

9. Integración con otros sistemas

  • El LANIUS puede integrarse con otros sistemas militares, como fuerzas terrestres o más drones, lo que mejora la capacidad de coordinarse dentro de una red de combate más grande y compleja.

En resumen, el LANIUS de Elbit Systems es un avance significativo en el uso de drones pequeños, impulsados por inteligencia artificial, para las operaciones militares modernas, especialmente en combates en entornos urbanos. Se destaca por su precisión, capacidad autónoma y la habilidad de adaptarse rápidamente a las situaciones dinámicas en estos entornos complejos.





miércoles, 13 de diciembre de 2023

Los problemas del desarrollo y uso de los robots en combate

Problemas del desarrollo y uso de robots de combate en la guerra moderna.

Por Nhan Vu


 

VietnamDefence - ¿Por qué el ejército apoya la creación de robots asesinos?


A finales de agosto de 2018, la próxima reunión del Grupo de Expertos Gubernamentales de la ONU sobre sistemas de combate autónomos (robots de combate) en Ginebra terminó casi sin resultados. Se esperaba que los expertos tuvieran la tarea de determinar el estatus legal de tales sistemas y luego pudieran hablar sobre la regulación o la prohibición total de su uso. La última misión no fue asignada. Inmediatamente después, Estados Unidos anunció una hoja de ruta para el desarrollo de robots de combate, incluidos planes para aumentar su nivel de independencia mediante el uso de tecnología de redes neuronales. Mientras los opositores y partidarios de los sistemas de combate autónomos discuten entre sí, descubriremos por qué los militares consideran que el desarrollo de robots asesinos es una tarea importante y qué papel deberían desempeñar en guerras futuras.

Los peligros de luchar contra robots

Los sistemas de combate autónomos en diversas formas existen desde hace mucho tiempo. Por ejemplo, los barcos estadounidenses y británicos desde la década de 1970 han sido equipados con sistemas de artillería Phalanx capaces de detectar de forma independiente objetivos voladores y de superficie y dispararles. La participación del operador es simplemente establecer los criterios que los tipos de objetivos deben cumplir para que el sistema considere posible disparar. Desde 2007, el ejército ruso ha estado equipado con sistemas de misiles de defensa aérea S-400 Triumf que pueden detectar objetivos voladores en modo totalmente automático, clasificarlos y determinar su prioridad y luego lanzar misiles contra ellos. El sistema de defensa antimisiles Iron Dome, que entró en servicio en 2011, también puede funcionar en modo automático. Además, este sistema es capaz incluso de separar objetivos potencialmente peligrosos de objetivos no peligrosos: si se espera que el misil objetivo caiga sobre un terreno despoblado, el sistema no interceptará ese misil.

Sin embargo, no fue hasta 2013 que la gente empezó a considerar la legalidad del uso de robots de combate en conflictos militares. En ese momento, el Consejo de Derechos Humanos de la ONU planteó la cuestión de las posibles amenazas a la salud y la vida humana en condiciones de guerra mediante el uso de robots asesinos. Lo que aún no está claro es cómo afectará el desarrollo de sistemas autónomos a la seguridad internacional. Al final, 26 países se pronunciaron a favor de una prohibición total de los robots de combate. Según los expertos de estos países, la ausencia de una prohibición podría conducir al surgimiento de una tiranía de la alta tecnología y a un aumento significativo de las pérdidas civiles en los conflictos militares.

Los argumentos que consideran insuperables se pueden exponer brevemente de la siguiente manera.

La existencia de robots de combate viola las disposiciones de los Convenios de Ginebra sobre la protección de los derechos civiles de la población en zonas de conflicto militar, especialmente los principios de distinción y proporcionalidad.
El principio de distinción requiere una distinción obligatoria y clara entre combatientes (aquellos que participan directamente en el combate) y no combatientes (civiles, así como soldados) y contratistas que no participan en el combate y tienen derecho a utilizar armas sólo para sí mismos. -defensa; por ejemplo, personal de servicio).

El principio de proporcionalidad permite pérdidas entre no combatientes, pero sólo si esas pérdidas son menores que las pérdidas entre combatientes. En pocas palabras, el principio de proporcionalidad prohíbe causar daños excesivos a los civiles.

Además, el uso activo de robots asesinos, según muchos expertos, elimina la responsabilidad directa de los comandantes por determinadas acciones. En concreto, no se sabe quién será el responsable en caso de un mal funcionamiento en el software del robot que provoque que éste mate a civiles: ¿el comandante en el campo de batalla o la empresa fabricante, el experto en programación o el ingeniero, profesor concreto? Quienes se oponen a los robots de combate creen que nadie será responsable. Además, el comandante envía a los robots a una misión con una orden deliberada de matar a todos, lo que luego puede confirmar que la matanza masiva se produjo debido a un mal funcionamiento en el software del robot.

En última instancia, se argumenta, el uso generalizado de robots de combate conducirá a la devaluación de la vida humana porque en guerras futuras, los humanos serán poco más que desventajas en una pantalla.
 
Sistema de artillería Phalanx en la cubierta de un barco de la Armada de los EE. UU. (US Navy)

Problemas legales

Las opiniones de quienes se oponen a los sistemas de combate autónomos no están fundamentalmente exentas de defectos (al igual que las opiniones de quienes apoyan dichos sistemas). En concreto, el principio de distinción se puede cumplir añadiendo al software de los robots armados una condición obligatoria: el oponente potencial debe ser el que dispare primero (si una persona dispara a los robots significa que esa persona participa en el combate). . La persona culpable del uso ilegal de robots de combate será determinada mediante registros en la memoria de los propios robots.

Sin embargo, es imposible prohibir o limitar los robots asesinos a nivel internacional, aunque sólo sea porque a día de hoy ni siquiera existe una definición universalmente aceptada de la autonomía de los sistemas de combate. Algunos consideran que un robot capaz de utilizar armas sin la intervención de un operador es autónomo, otros, como el Ministerio de Defensa británico, consideran la capacidad de un robot para tomar decisiones independientes: elegir entre varias opciones (incluido el uso de armas) basándose en muchas factores externos, tanto con supervisión del operador como sin dicha supervisión, es autónomo.

Del 27 al 31 de agosto de 2018, tuvo lugar en Ginebra la próxima reunión del Grupo de Expertos Gubernamentales de la ONU sobre sistemas de combate autónomos (las dos reuniones anteriores tuvieron lugar en diciembre de 2017 y abril de 2018). Se calculaba que, tras esta reunión, el grupo de expertos tendría derecho a elaborar un anteproyecto de normas para el uso de robots de combate en combate, pero para ello era necesario un consenso que no se pudo lograr.


Varios países, incluidos Estados Unidos, Rusia, Australia, Israel y Corea del Sur, han declarado que no debería imponerse una prohibición total del uso de robots de combate autónomos. Además, los diplomáticos rusos afirman que actualmente no existen robots de combate, por lo que imponerles una prohibición preventiva no tiene sentido. Durante la reunión, Rusia, Estados Unidos, Francia y Alemania propusieron una declaración política en la que los países participantes en la reunión darían garantías de que los humanos siempre tendrán control sobre las acciones de los robots asesinos.

Al final de la reunión, las partes sólo acordaron que el desarrollo de sistemas de combate que apliquen inteligencia artificial debe realizarse de acuerdo con el derecho internacional humanitario (una síntesis de reglas, prácticas, estándares y principios que limitan los métodos y medios de hacer la guerra). y proteger a combatientes y civiles), mientras que la responsabilidad por el uso de robots asesinos recae en cualquier caso en las personas que tienen que sufrir.

¿Para qué se necesitan los robots de combate?

Durante muchos años, los círculos militares de muchos países han citado muchas razones para justificar la necesidad de sistemas de combate autónomos en las fuerzas armadas. Entre estas razones se encuentran mejorar la precisión de los ataques en los campos de batalla enemigos, reducir el daño colateral (mayor daño y pérdida de vidas al destruir el objetivo principal) y ahorrar dinero en la política de defensa y muchas otras razones. Sin embargo, cuatro factores principales influyeron decisivamente en el desarrollo de la tecnología robótica militar: el deseo de reducir la pérdida de mano de obra en el bando, la creciente complejidad de los conflictos armados, la carrera armamentista y la reposición del ejército.

Todas las demás razones que justifican el desarrollo de robots asesinos (se mencionan directamente los sistemas armados y autónomos; las cuestiones de desarrollo y los sistemas no armados, incluido el sistema de reconocimiento más amplio) pueden tener sólo una influencia indirecta en el desarrollo de los sistemas de combate autónomos.

Reducir las pérdidas de los propios soldados en los conflictos armados es uno de los objetivos más obvios porque permite mantener el equilibrio numérico con el oponente o crear superioridad numérica sobre el oponente. Menos pérdidas también ayudan a reducir los costos militares, desde pagos de pólizas de seguro hasta pagos por organizar operaciones de rescate, evacuaciones y entierro de restos de soldados muertos. Además, entrenar soldados profesionales es bastante caro y lleva mucho tiempo, por lo que la pérdida de soldados en conflictos armados provoca pérdidas extremadamente grandes.

Los Ministerios de Defensa de algunos países, incluidos EE.UU. y Rusia, creen que el uso de robots de combate permitirá completar misiones de combate complejas más rápido y con un riesgo mínimo para la vida de los soldados, incluido el combate en entornos urbanos densos o intensas actividades de caza y francotiradores.

Se espera que para 2050 más del 80% de la población mundial viva en ciudades, lo que significa que los conflictos armados se producirán precisamente en condiciones urbanas. Practicar combate en áreas urbanas es mucho más complicado que en terreno abierto, por ejemplo, porque las unidades acechan en peligro literalmente desde todas las direcciones, incluso desde el subsuelo (sistemas de alcantarillado o metros) y desde arriba (desde ventanas de gran altura). . En la ciudad, incluso una operación pequeña y aparentemente sencilla podría convertirse fácilmente en una masacre sangrienta.

El uso en condiciones urbanas de diferentes tipos de robots de combate, desde pequeños vehículos aéreos no tripulados (UAV) multirrotor armados hasta sistemas terrestres de gran movilidad, simplifica en gran medida la planificación y ejecución de operaciones militares, en las que se utilizan las mismas máquinas. De hecho, eran a la vez exploradores, saboteadores y fuerzas de asalto.


La carrera armamentista es otra razón citada por los militares para abogar por sistemas de combate autónomos. El problema es que el progreso militar está conduciendo gradualmente a la creación de armas y armas técnicas cada vez mejores. Por ejemplo, los países líderes del mundo están investigando el desarrollo de armas hipersónicas capaces de atravesar los sistemas de defensa antimisiles enemigos. Para interceptar misiles hipersónicos será necesario desarrollar nuevos sistemas autónomos de defensa antimisiles que apliquen inteligencia artificial, capaces de detectar, clasificar y disparar de forma independiente objetivos balísticos y proyectiles lanzados desde el aire y objetivos aerodinámicos. Debido a la altísima velocidad de estos objetivos, las personas que forman parte de las tripulaciones de combate de los sistemas de defensa antimisiles simplemente no tendrán tiempo para analizar la situación aérea, tomar decisiones y dar órdenes.

Finalmente, los ejércitos de algunos países han enfrentado reducciones graduales en el número de tropas debido a razones demográficas o económicas. Por ejemplo, debido a la disminución de la tasa de natalidad, el número de soldados en el ejército coreano también está disminuyendo, por lo que algunas unidades actualmente no cuentan con todo el personal. En la Fuerza Aérea de EE. UU. hay escasez de controladores de vehículos aéreos no tripulados y pilotos de combate.

Se espera que el desarrollo de robots de combate completamente independientes permita resolver las dificultades en el reclutamiento de tropas para el ejército. Por ejemplo, según la evaluación del Ministerio de Defensa de Corea, el uso de torretas autopropulsadas en los cañones autopropulsados ​​K9 Thunder permitirá reemplazar a 2.000 soldados. Estados Unidos cree que la creación de vehículos aéreos no tripulados de ataque ayudará a superar la falta de operadores humanos, ya que gracias al alto nivel de autonomía de los aviones no tripulados, una persona podrá controlar al mismo tiempo algunos vehículos aéreos no tripulados.

Los políticos todavía están discutiendo

Actualmente, las empresas de la industria de defensa rusa están desarrollando las familias de robots de combate Uran, Nerekhta y Soratnik, que se espera que se utilicen para proporcionar potencia de fuego a la infantería, proteger objetivos militares e infraestructura clave y realizar reconocimientos, ataques con potencia de fuego y atravesar las barreras del enemigo. defensa. Estados Unidos está investigando la creación del UAV XQ-58A Valkyrie para que sirva como vehículo de vuelo guiado en escuadrones de cazas. Estos vehículos aéreos no tripulados podrán realizar misiones de reconocimiento, cubrir y proteger a los pilotos de combate, realizar combates aéreos móviles o proporcionar apoyo aéreo de fuego a unidades terrestres.

Corea está investigando la creación de robots de reconocimiento y combate que operen en el aire, en tierra, en el agua y bajo el agua. Permitirán compensar la falta de reclutamiento para el ejército. China también está desarrollando tanques robóticos que reducirán las pérdidas en feroces batallas de tanques. En los próximos años, Israel planea aceptar en servicio robots de combate microscópicos utilizados para destruir a los líderes de Hezbollah y los militantes de HAMAS.


Los medios éticos y legales de tales proyectos de desarrollo requieren una discusión cuidadosa. ¿Es posible darle a los robots el derecho de matar personas? ¿Es aceptable sustituir a los humanos capaces de sentir situaciones por máquinas de ejecución sin emociones? ¿Dónde está la línea divisoria entre los desarrollos de robots autónomos civiles y militares cuando se basan en las mismas tecnologías? ¿Es correcto retirar a los soldados del campo de batalla y colocarlos detrás de consolas en cómodas sillas a miles de kilómetros de las zonas de combate?

Los robots asesinos aún no forman parte de la guerra moderna, pero es necesario preparar la base legal para la aplicación de tales sistemas ahora porque el progreso se está produciendo muy rápidamente. Tanto Estados Unidos como Rusia y algunos otros países afirman que no son hostiles a la creación de sistemas de combate completamente independientes. Sin embargo, Estados Unidos todavía dice que planea convertir los robots asesinos en un modo totalmente autónomo en respuesta al surgimiento de robots de combate autónomos provenientes de regímenes autoritarios.

Fuente: N+1, 5 de septiembre de 2018.