miércoles, 14 de julio de 2021

Inteligencia Artificial: ¿Hay una carrera armamentísta?


Desmintiendo la teoría de la carrera armamentista de la Inteligencia Artificla (IA)

Paul Scharre || Texas National Security Review

No hay carrera de armamentos de IA. Sin embargo, la competencia militar en IA todavía presenta ciertos riesgos. Estos incluyen la pérdida del control humano y la aceleración de la guerra, así como el riesgo de que las percepciones de una carrera armamentista hagan que los competidores tomen atajos en las pruebas, lo que lleva al despliegue de sistemas de IA inseguros.


En 2015, un grupo de destacados investigadores de inteligencia artificial y robótica firmó una carta abierta advirtiendo sobre los peligros de las armas autónomas. “La pregunta clave para la humanidad hoy”, escribieron, “es si comenzar una carrera armamentista global de IA o evitar que comience. Si cualquier potencia militar importante sigue adelante con el desarrollo de armas de IA, una carrera de armamentos global es virtualmente inevitable ”. 1 Hoy en día, muchas naciones están trabajando para aplicar la IA para obtener ventajas militares, y el término“ carrera de armamentos de IA ”se ha convertido en un eslogan utilizado por ambos críticos y defensores de la militarización de la IA. En 2018, el entonces subsecretario de Defensa Michael Griffin, pidiendo a Estados Unidos que invierta más en inteligencia artificial, declaró: "Puede que haya una carrera armamentista de inteligencia artificial, pero todavía no estamos en ella". Will Roper, entonces director de adquisiciones de la Fuerza Aérea de EE. UU., advirtió sobre los riesgos de quedarse atrás en una "carrera de armamentos digitales con China". 3

La llamada carrera de armamentos de la IA se ha convertido en una característica común en los titulares de las noticias, 4 pero el encuadre de la carrera de armamentos no se ajusta a la realidad. Si bien las naciones compiten claramente para desarrollar y adoptar tecnología de inteligencia artificial para uso militar, el carácter de esa competencia no se ajusta a la definición tradicional de carrera armamentista. Sin embargo, la competencia de IA militar presenta riesgos. La adopción generalizada de la IA militar podría hacer que la guerra evolucione de una manera que conduzca a un menor control humano y a que la guerra se vuelva más rápida, más violenta y más desafiante en términos de poder gestionar la escalada y poner fin a una guerra. Además, las percepciones de una "carrera" para desplegar sistemas de IA antes que los competidores podrían hacer que las naciones reduzcan las pruebas, lo que lleva al despliegue de sistemas de IA inseguros que están en riesgo de accidentes que podrían causar una escalada o destrucción involuntaria. Incluso si los temores de una "carrera armamentista de IA" son exagerados, la competencia de IA militar conlleva riesgos reales a los que las naciones deberían asistir. Hay pasos concretos que las naciones pueden tomar para mitigar algunos de estos peligros.

La competencia actual de IA militar no es una "carrera armamentista"

Como ha escrito Heather Roff, el encuadre de la carrera armamentista “tergiversa la competencia que se desarrolla entre países”. 5 Para empezar, la IA no es un arma. La IA es una tecnología habilitadora de uso general con una gran variedad de aplicaciones. No es como un misil o un tanque. Es más como la electricidad, el motor de combustión interna o las redes de computadoras.6 Las tecnologías de propósito general como la IA tienen aplicaciones en una variedad de industrias. El cofundador de la revista Wired, Kevin Kelly, ha argumentado que “dará vida a los objetos inertes, como lo hizo la electricidad hace más de un siglo. Todo lo que antes electrificamos ahora lo conoceremos ”7.

Es muy posible que las naciones estén en una carrera tecnológica para adoptar la IA en una variedad de industrias. La IA ayudará a mejorar la productividad económica y, por extensión, el poder económico y militar. Durante la revolución industrial, los primeros en adoptar la tecnología industrial aumentaron significativamente su poder nacional. De 1830 a 1890, Gran Bretaña y Alemania, que fueron ambos industrializadores tempranos, más que duplicaron su producto nacional bruto per cápita, mientras que Rusia, que estaba rezagada en la industrialización, aumentó su producto nacional bruto per cápita en un mero 7 por ciento durante ese período de 60 años .8 Estas ventajas tecnológicas dieron lugar a un aumento del poder económico y militar, sobre todo para Europa en relación con el resto del mundo. En 1790, Europa (colectivamente), China e India (incluyendo lo que ahora es Pakistán y Bangladesh) tenían aproximadamente la misma participación en la producción manufacturera global, con Europa e India cada una con aproximadamente una cuarta parte de la producción manufacturera global y China con aproximadamente una. -tercera. Todos tenían niveles aproximadamente equivalentes de industrialización per cápita en ese momento. Pero la revolución industrial disparó la productividad económica europea. Para 1900, Europa controlaba colectivamente el 62 por ciento de la producción manufacturera mundial, mientras que China tenía solo el seis por ciento e India menos del dos por ciento. Estas ventajas económicas se tradujeron en poder militar. En 1914, los europeos ocuparon o controlaron más del 80 por ciento de la superficie terrestre del mundo.9

Es probable que estar a la vanguardia en la adopción de IA genere importantes ventajas a nivel nacional. Aunque la IA puede aumentar las capacidades militares, las ventajas más importantes a largo plazo pueden provenir de aplicaciones de IA no militares en la sociedad. Los beneficios a largo plazo de la IA podrían incluir una mayor productividad, mejores resultados de atención médica, crecimiento económico y otros indicadores de bienestar nacional. Incrementar la productividad es especialmente significativo porque tiene un efecto compuesto sobre el crecimiento económico. A largo plazo, el progreso tecnológico es el principal motor del crecimiento económico.10

La escala del gasto militar en IA, al menos en la actualidad, no es lo suficientemente grande como para merecer el título de "carrera armamentista".

Por supuesto, la IA también se puede utilizar para armas. Los militares de todo el mundo están trabajando activamente para adoptar la IA para mejorar sus capacidades militares. Sin embargo, la militarización de la IA no se ajusta, en la actualidad, a la definición tradicional de carrera armamentista, a pesar de la urgencia retórica de muchos líderes nacionales. Michael D. Wallace, en su artículo de 1979 "Arms Races and Escalation", definió una carrera armamentista como "que implica tasas anormales simultáneas de crecimiento en los desembolsos militares de dos o más naciones" como resultado de "la presión competitiva de los militares mismos, y no de fuerzas internas exógenas a esta rivalidad ". Wallace afirmó además que el concepto de carrera armamentista solo se aplicaba “entre naciones cuyas políticas exteriores y de defensa son muy interdependientes” y que tienen capacidades “aproximadamente comparables ”.11 La IA está siendo adoptada por muchos países de todo el mundo.12 Podría decirse que al menos algunos de las díadas, como Estados Unidos y China, cumplen la definición de Wallace en términos de ser naciones con capacidades "aproximadamente comparables", encerradas en la competencia, "cuyas políticas exterior y de defensa son muy interdependientes". Sin embargo, la IA no pasa la prueba de la carrera armamentista en el área crítica del gasto.

Wallace distinguió las carreras armamentistas del comportamiento normal de los estados para mejorar sus fuerzas militares. Un estado que adopta una nueva tecnología y moderniza sus fuerzas militares no está automáticamente en una carrera armamentista, según la definición de Wallace, incluso si la modernización tiene como objetivo competir con otro país. El factor decisivo para calificar como carrera armamentista, según Wallace, es la tasa de crecimiento del gasto en defensa. Wallace caracterizó las carreras armamentistas como resultado de tasas de crecimiento anormalmente elevadas en el gasto en defensa, más allá del promedio histórico de crecimiento anual del 4 al 5 por ciento (en dólares reales). En una carrera de armamentos, las tasas de crecimiento anual están por encima del 10 por ciento o incluso tan altas como del 20 al 25 por ciento.13 Otros académicos definen las carreras de armamentos usando diferentes umbrales cuantitativos, y algunas definiciones carecen de umbrales cuantitativos claros en absoluto, pero la existencia de aumentos rápidos en El gasto en defensa o las fuerzas militares por encima de los niveles normales es un criterio común en la literatura académica sobre carreras armamentistas.14

Las carreras de armamentos dan como resultado situaciones en las que dos o más países están atrapados en un gasto de defensa en espiral, acaparando cada vez más partes del tesoro nacional, a menudo con poca o ninguna ganancia neta en ventaja relativa sobre el otro. Los ejemplos históricos clásicos incluyen la carrera armamentista naval anglo-alemana antes de la Primera Guerra Mundial y la carrera armamentista nuclear entre Estados Unidos y la Unión Soviética durante la Guerra Fría. El gasto en IA militar de hoy claramente no cumple con estos criterios de tasas de crecimiento anormalmente grandes en el gasto de defensa. El gasto en defensa de la IA es difícil de calcular debido a la naturaleza de propósito general de la tecnología de IA. A diferencia de los barcos o los misiles balísticos, los sistemas de IA no se pueden contar fácilmente. Sin embargo, incluso estimaciones burdas del gasto en defensa muestran que las inversiones en inteligencia artificial militar no son lo suficientemente grandes como para constituir una carrera armamentista. Una estimación independiente realizada por el Gobierno de Bloomberg sobre el gasto de defensa de EE. UU. En IA identificó $ 5 mil millones en investigación y desarrollo relacionados con la IA en el año fiscal 2020, o aproximadamente el 0,7 por ciento del presupuesto del Departamento de Defensa de más de $ 700 mil millones.15 La escala del gasto militar en IA, en al menos en la actualidad, no es lo suficientemente grande como para merecer el título de "carrera armamentista". (Agregar el gasto del sector privado, que constituye la mayor parte de la inversión en IA, daría lugar a cifras más grandes, pero desmentiría aún más la afirmación de una carrera de "armamentos", ya que la mayor parte de la inversión en IA del sector privado no está en armas).

Competencia de IA y el dilema de seguridad

Incluso si el gasto en IA militar no se eleva al nivel de una "carrera armamentista", muchas naciones, sin embargo, están involucradas en una competencia de seguridad en la adopción de IA militar, una competencia que presenta riesgos. La situación en la que se encuentran los estados con respecto a la competencia de la IA se describe con mucha más precisión como un dilema de seguridad, 16 una dinámica competitiva más generalizada entre estados que la "carrera armamentista" definida de manera más estricta. En su artículo de 1978, "Cooperación bajo el dilema de la seguridad", Robert Jervis definió el dilema de la seguridad de la siguiente manera: "[M] Cualquiera de los medios por los que un estado intenta aumentar su seguridad disminuye la seguridad de los demás". 17 Como Charles Glaser ha señalado, no es obvio a partir de esta definición por qué sería intrínsecamente malo que un aumento en la seguridad de un estado se produzca a expensas de la seguridad de otro.18 De hecho, disminuir la seguridad de otros estados podría tener efectos beneficiosos para mejorar la disuasión y reducir los riesgos de agresión o lograr un equilibrio de poder favorable en una región, lo que podría a una mayor influencia política. El problema viene en los efectos de segundo y tercer orden que podrían desarrollarse cuando otro estado reacciona ante la reducción de su seguridad. Las respuestas podrían incluir un contrapeso con un efecto neto de ningún cambio en la seguridad (o empeoramiento de la seguridad). Glaser sostiene que hay algunas situaciones en las que la competencia en seguridad es una estrategia racional que debe perseguir un estado, incluso si los competidores se armarán en respuesta. En otras situaciones, armar puede ser una estrategia subóptima para un estado, que estaría mejor servido con moderación o persiguiendo el control de armas19.

La competencia en seguridad incluso podría dejar a ambos estados peor que antes. Esto puede ocurrir durante una carrera armamentista tradicional si las naciones gastan grandes sumas de dinero en un intento fallido de obtener una ventaja sobre las otras, con el resultado de que ambas naciones desvían fondos de gastos no relacionados con la defensa. Si el resultado de una competencia de seguridad es el mismo equilibrio militar relativo que antes, es posible que el equilibrio de poder no haya cambiado de manera significativa, pero ambas naciones podrían enfrentar una disminución del bienestar económico y social en casa en comparación con si hubieran evitado una competencia de seguridad. Sin embargo, incluso en ausencia de esta disyuntiva de “armas contra mantequilla”, hay otras formas en las que la competencia por la seguridad puede conducir a un resultado negativo neto para ambos estados.

Una forma en que esto podría ocurrir es si la innovación militar y el desarrollo de nuevas capacidades alteran el carácter de la guerra de una manera más dañina, más destructiva, menos estable o menos deseable que antes. En su artículo de 1997, “El dilema de seguridad revisado”, Glaser dio el ejemplo de las capacidades militares que cambiaron la guerra a un régimen más dominante en el ataque.20 Hay otras formas en las que la guerra también podría evolucionar en una dirección netamente negativa. Por ejemplo, en la Primera Guerra Mundial, el interés de Alemania en desarrollar y desplegar armas químicas se estimuló en parte debido a los temores sobre el desarrollo de Francia en el gas venenoso.21 El resultado fue la introducción de un arma que aumentó el sufrimiento de los combatientes en ambos lados, sin entregar un ventaja militar significativa para cualquiera. Lo mismo podría ocurrir con la IA: podría alterar el carácter de la guerra de una manera que sería netamente negativa para todos los participantes.

Un ritmo de guerra acelerado

Una posibilidad de cómo la IA podría alterar la guerra de una manera que dejaría a todos los estados en peor situación sería si acelerara el ritmo de la guerra más allá del punto de control humano, haciendo que la guerra sea más rápida, más violenta y menos controlable. Hay ventajas en agregar inteligencia a las máquinas, pero dadas las limitaciones de los sistemas de IA actuales, el modelo óptimo para lograr la toma de decisiones de la más alta calidad sería una arquitectura conjunta hombre-máquina que combine la toma de decisiones humana y mecánica. Sin embargo, una forma en que las máquinas superan a los humanos es en velocidad. Es posible imaginar una dinámica competitiva en la que los países se sientan obligados a automatizar cantidades cada vez mayores de sus operaciones militares para mantenerse al día con los adversarios. El entonces subsecretario de Defensa, Robert O. Work resumió el dilema cuando preguntó: “Si nuestros competidores van a Terminators y todavía estamos operando donde las máquinas ayudan a los humanos y resulta que los Terminators pueden tomar decisiones más rápido, incluso si son malos, ¿cómo responderíamos? ”22 Este es un clásico dilema de seguridad. La búsqueda de un estado de una mayor automatización y tiempos de reacción más rápidos socava la seguridad de otros estados y los lleva a buscar de manera similar más automatización solo para mantenerse al día.

Si los estados caen víctimas de esta trampa, podría llevar a que todos los estados sean menos seguros, ya que la búsqueda de una mayor automatización no sería simplemente una evolución en armas y contramedidas que simplemente conduciría a la creación de nuevas armas en el futuro. En algún momento, la guerra podría cambiar a un régimen cualitativamente diferente en el que los humanos tienen menos control sobre la fuerza letal a medida que las decisiones se vuelven más automatizadas y el ritmo acelerado de las operaciones empuja a los humanos “fuera del circuito” de la toma de decisiones. Algunos académicos chinos han planteado la hipótesis de una "singularidad" en el campo de batalla, en la que el ritmo del combate eclipsa la toma de decisiones humana.23 Los académicos estadounidenses han utilizado el término "hiperguerra" para referirse a un escenario similar.24 En algunas áreas limitadas hoy, como la defensa localizada inmediata de barcos, bases y vehículos contra ataques con cohetes y misiles, expandir esta zona de control de máquinas a áreas de guerra más amplias sería un avance significativo. Un menor control humano sobre la guerra podría conducir a guerras que son menos controlables y que se intensifican más rápidamente o más ampliamente de lo que los humanos pretenden. De manera similar, limitar la escalada o terminar los conflictos podría ser más desafiante si el ritmo de las operaciones en el campo de batalla excede la toma de decisiones humana. Los líderes políticos tendrían un problema de comando y control en el que sus fuerzas militares están operando "dentro" (es decir, más rápido que) el ciclo de decisión sus propias fuerzas armadas. El efecto neto del deseo bastante racional de que las naciones ganen una ventaja en la velocidad podría conducir a un resultado peor para todos. Sin embargo, la dinámica competitiva podría impulsar ese resultado.
La búsqueda de un estado de una mayor automatización y tiempos de reacción más rápidos socava la seguridad de otros estados y los lleva a buscar de manera similar más automatización solo para mantenerse al día.
Los mercados financieros proporcionan un ejemplo de esta dinámica en un entorno competitivo no militar. La automatización introducida en los mercados financieros, especialmente las operaciones de alta frecuencia en las que las operaciones se ejecutan a velocidades sobrehumanas en milisegundos, ha contribuido a la inestabilidad de las condiciones del mercado que pueden provocar "caídas repentinas", en las que los precios cambian rápida y drásticamente.25 Reguladores financieros han respondido empleando "disyuntores" que detienen automáticamente la negociación durante un período de tiempo predeterminado si el precio se mueve demasiado rápido.26 Los mercados financieros tienen el beneficio de un regulador que puede obligar a los competidores a adoptar medidas de cooperación para abordar resultados subóptimos. En condiciones de anarquía en el entorno de seguridad internacional, dicha cooperación tendría que provenir de los propios estados.

La dinámica de una competencia de velocidad es como una carrera de armamentos, si ampliamos la definición de carrera de armamentos para que esté más en línea con los ejemplos biológicos de coevolución competitiva. Los biólogos a menudo usan la metáfora de una carrera armamentista para explicar "una escalada descontrolada e inestable" de adaptación y contraadaptación que puede ocurrir en los animales.27 Esto puede ocurrir entre especies, como depredadores y presas, o dentro de especies, como machos en evolución. en competencia por las hembras. Las carreras de armamentos biológicos pueden manifestarse de diversas formas, como las competencias entre depredadores y presas con respecto al camuflaje frente a la detección y la armadura frente a las garras, así como la velocidad, las habilidades cognitivas, el veneno, el engaño u otros atributos que pueden aumentar las posibilidades. de supervivencia.28 Esta definición biológica más amplia de una carrera de armamentos está más en línea con el potencial de una creciente "carrera de armamentos en la velocidad" entre las naciones que conduce a una mayor automatización en la guerra. Si bien este concepto no cumple con la definición tradicional de carrera de armamentos en la literatura de estudios de seguridad, es un concepto útil para describir el potencial de una coevolución en la velocidad que no conduce a una ventaja relativa neta y, de hecho, puede dejar a ambos lados en peor situación.

Carrera hacia abajo en seguridad

Un riesgo relacionado de una dinámica de "carrera" entre competidores podría provenir de una aceleración, no del ritmo de las operaciones en el campo de batalla, sino del proceso de desplegar nuevos sistemas de IA. Los sistemas de inteligencia artificial de hoy tienen una serie de problemas de seguridad y protección que pueden hacerlos frágiles, poco confiables e inseguros.29 Debido a que el aprendizaje automático en particular puede crear nuevas formas en las que los sistemas pueden fallar, los militares enfrentan nuevos desafíos al adoptar sistemas de inteligencia artificial.30 Los militares lo harán. tienen que adoptar nuevos métodos para probar, evaluar, verificar y validar los sistemas de inteligencia artificial (también conocidos como TEVV) .31 Tales preocupaciones relacionadas con la autonomía son bien conocidas en la comunidad de defensa de EE. UU., 32 aunque en la actualidad no se han resuelto de manera satisfactoria. la licenciatura. El aprendizaje automático presenta desafíos adicionales con respecto a las pruebas, la evaluación, la verificación y la validación. Una prisa por desplegar sistemas de IA antes de que se prueben por completo podría resultar en una "carrera hacia el fondo" en seguridad, con los militares desplegando sistemas de IA propensos a accidentes.

Existen fuertes imperativos burocráticos e institucionales para que los ejércitos utilicen sistemas de campo que sean robustos y seguros. De hecho, diseñar sistemas según los estándares de especificaciones militares a menudo significa hacerlos más robustos para una gama más amplia de condiciones ambientales y choques que los sistemas comerciales comparables, incluso a expensas de otros aspectos del rendimiento, como el tamaño, el peso o la facilidad de uso. Sin embargo, la IA presenta desafíos novedosos para lograr la solidez necesaria para operar en los entornos complejos, peligrosos y adversarios que a menudo caracterizan las operaciones militares.

Ciertos métodos de IA actuales, como el aprendizaje profundo, siguen siendo relativamente inmaduros con importantes desafíos de confiabilidad. Un informe del Departamento de Defensa de 2017 del grupo asesor científico JASON explicó que las redes neuronales profundas

son inmaduros en lo que respecta a las "enfermedades", incluida la confiabilidad, la capacidad de mantenimiento, la responsabilidad, la validación y verificación, la capacidad de depuración, la capacidad de evolución, la fragilidad, la capacidad de ataque, etc. … Además, no está claro que el paradigma de IA existente sea inmediatamente susceptible de cualquier tipo de validación y verificación de ingeniería de software. Este es un problema serio, y es un obstáculo potencial para el uso de estos modernos sistemas de IA por parte del Departamento de Defensa (Departamento de Defensa), especialmente cuando se considera la responsabilidad y la responsabilidad del uso de IA en sistemas letales.33

La estrategia de inteligencia artificial de 2018 del Departamento de Defensa exige la construcción de sistemas de inteligencia artificial que sean "resistentes, robustos, confiables y seguros" .34 Sin embargo, el estado actual de la tecnología hace que el logro de su objetivo es particularmente difícil para los sistemas de inteligencia artificial que incorporan el aprendizaje profundo, un subcampo de la inteligencia artificial que ha experimentado un crecimiento y una atención significativos en los últimos años. Si bien hay una investigación activa en curso para mejorar la seguridad y la protección de la inteligencia artificial, los militares tendrán que adaptarse a la tecnología tal como está actualmente, al menos por el momento. Un proceso ideal sería que los militares se involucren en la experimentación, la creación de prototipos y el desarrollo de conceptos, pero también someter los sistemas de IA a una TEVV rigurosa en condiciones operativas realistas antes del despliegue. Tomar atajos en las pruebas y evaluaciones y desplegar un sistema antes de que esté completamente probado podría provocar accidentes que, en algunos entornos, podrían socavar la estabilidad internacional.

Al evaluar las nuevas tecnologías, los militares pueden aceptar relativamente el riesgo de accidentes, lo que puede llevarlos a tolerar el despliegue de sistemas que tienen problemas de confiabilidad. Al construir y desplegar nuevas capacidades, los militares deben sopesar la posibilidad de que ocurra un accidente con otras preocupaciones, como renunciar a capacidades militares valiosas. El entorno operativo militar está plagado de riesgos, tanto en el entrenamiento como en las operaciones del mundo real. Las instituciones militares equilibran la gestión de este riesgo con otros factores, como la necesidad de formación, el desarrollo de nuevas capacidades o el cumplimiento de la misión. Las instituciones militares ven las víctimas de accidentes de entrenamiento o la prueba de nuevas capacidades como una parte trágica pero inevitable del negocio de prepararse para la guerra. Los militares esperan un alto rendimiento de sus fuerzas, a menudo mientras realizan tareas peligrosas, pero los militares ni exigen ni esperan operaciones sin accidentes en la mayoría de los entornos.35 De 2006 a 2020, más de 5.000 militares estadounidenses murieron en accidentes no relacionados con la guerra. la mayoría de los cuales ocurrieron en los Estados Unidos. Los accidentes en general representaron casi el 32 por ciento de las muertes de miembros del servicio de EE. UU. Durante este período, e incluso representaron una parte significativa de las muertes de miembros del servicio en Irak (19 por ciento) y Afganistán (16 por ciento) .36 Estas tasas de accidentes no son inusuales para las fuerzas armadas de EE. UU. . Este es el negocio habitual. Los accidentes llaman la atención de altos funcionarios militares y civiles cuando se produce una serie de accidentes en un período corto de tiempo, como una serie de choques de aeronaves, 37 colisiones de barcos, 38 o accidentes de entrenamiento39. Sin embargo, como un informe sobre accidentes navales de Las notas de 1945 a 1988, “los accidentes navales en tiempos de paz son una realidad” 40. Lo mismo ocurre con las operaciones militares aéreas y terrestres. Los ejércitos de otras naciones pueden hacer un trabajo aún peor en la gestión del riesgo cuando se trata de accidentes que el ejército de los EE. UU. Por ejemplo, la comunidad submarina soviética / rusa tiene una tasa de accidentes mucho más alta que la comunidad submarina estadounidense.41

Las nuevas tecnologías, en particular, presentan un mayor riesgo de accidentes, sin embargo, los militares pueden seguir adelante con el deseo de desarrollar y desplegar lo que perciben como una capacidad valiosa. Por ejemplo, la aeronave de rotor basculante V-22 Osprey sufrió cuatro accidentes durante el desarrollo, matando a 30 militares estadounidenses en total, sin embargo, el Departamento de Defensa continuó el desarrollo.42 El gerente del programa V-22 citó la prisa por desarrollar la tecnología como un factor en los accidentes. , afirmando: “Cumplir con una fecha límite de financiamiento fue más importante que asegurarnos de haber hecho todas las pruebas que pudimos”. 43 En particular, tomar atajos en las pruebas parece haber sido un factor en al menos un accidente fatal. Según una investigación de la Oficina de Responsabilidad del Gobierno sobre el programa V-22, las "presiones de programación" llevaron al programa a realizar solo 33 de las 103 pruebas planificadas de un fenómeno aerodinámico llamado "estado de anillo de vórtice" 44, un fenómeno que más tarde provocó una crisis en abril de 2000. accidente que mató a 19 miembros del servicio.45

En ausencia de una dinámica competitiva, los militares pueden manejar los desafíos de desplegar sistemas de IA seguros en un grado más o menos satisfactorio, aunque con cierto riesgo de que ocurra un accidente. Sin embargo, debido al deseo de desplegar capacidades de IA antes que sus competidores, los ejércitos pueden estar más dispuestos a aceptar el riesgo de lo que estarían de otra manera y a desplegar sistemas que son propensos a contratiempos.46 Dinámicas competitivas similares pueden haber jugado un papel en los accidentes con uno mismo. -conducir automóviles y tecnología de piloto automático de aerolíneas comerciales, mientras las empresas se apresuraron a ganarle a otras en el mercado.47 Estas dinámicas, aunque no son una carrera armamentista, podrían llevar a los militares a participar en una “carrera hacia el fondo” en materia de seguridad. Este riesgo podría volverse particularmente agudo en tiempos de guerra.

Las nuevas tecnologías, en particular, presentan un mayor riesgo de accidentes, sin embargo, los militares pueden seguir adelante con el deseo de desarrollar y desplegar lo que perciben como una capacidad valiosa.

La gestión de estos riesgos es un desafío porque evaluarlos puede resultar difícil, especialmente cuando se trata de nuevas tecnologías. Las tasas de accidentes pueden ser bien conocidas para las tecnologías maduras, pero se desconocen para las tecnologías aún en desarrollo. En el caso del desarrollo V-22 Osprey, para examen por ejemplo, no es que el Departamento de Defensa supiera que desarrollarlo conduciría a múltiples accidentes y 30 muertes, pero decidió que lograr la capacidad valió la pena el costo. Los ingenieros, probadores y gerentes de programas están volando en la oscuridad cuando se trata de nuevas tecnologías; después de todo, ese es el objetivo de probar nuevos sistemas. La preocupación no es solo que las organizaciones puedan tomar riesgos medidos para desplegar nuevas capacidades, sino también que los imperativos institucionales y burocráticos pueden llevar a las organizaciones a distorsionar sus propias percepciones de riesgo, contribuyendo aún más a los accidentes. Este fenómeno sociológico se ha citado como causa de la explosión del transbordador espacial Challenger de 1986, por ejemplo.48

El hecho de que los ejércitos puedan correr riesgos si se mueven demasiado rápido en la adopción de nuevas tecnologías va en contra de la caricatura común de la cultura militar como conservadora, rígida y resistente a la innovación. Si bien esta caricatura no es del todo justa (los ejércitos innovan incluso en tiempos de paz49), la falta de retroalimentación directa y observacional sobre el desempeño en un entorno competitivo realista, similar a la dinámica del mercado para las empresas comerciales, puede significar que los ejércitos a menudo tardan en adaptarse a las circunstancias cambiantes. . Una variedad de factores pueden afectar la adopción militar de nuevas tecnologías, 50 y las tasas de adopción pueden variar considerablemente según la tecnología, el estado y la comunidad militar. A través de una gama de tecnologías contemporáneas, los ejércitos van por detrás del sector privado. Por ejemplo, los ejércitos de hoy en día están detrás del sector privado en la adopción de tecnología de la información, tecnologías de optimización del desempeño humano y mejores prácticas para el personal. Con una cantidad cada vez mayor de innovación tecnológica que se produce fuera del sector de defensa, es probable que este retraso continúe.51 Sin embargo, el factor de riesgo clave para los sistemas de inteligencia artificial militares no es el momento en que los ejércitos comienzan el proceso de adopción, sino la toma de atajos. en seguridad para acelerar el despliegue de nuevas capacidades de IA.

La adopción de tecnología es un proceso de múltiples etapas, que involucra investigación y desarrollo, experimentación, creación de prototipos, maduración de tecnología, producción, pruebas y campo. Es posible que los ejércitos se muevan lentamente en una etapa y rápidamente (o mediante atajos) en otras. Si bien hay muchas áreas en las que la adopción de inteligencia artificial, autonomía, robótica y vehículos deshabitados por parte de las fuerzas armadas de EE. UU. Se está moviendo lentamente debido a una variedad de obstáculos burocráticos, también es posible que los Estados Unidos apresuren partes del proceso de adopción y terminen con tecnología inmadura en producción o incluso en el campo. Esta dinámica mixta, de avanzar lentamente en algunos aspectos del desarrollo tecnológico y tomar atajos en otros, ha estado presente en otros programas de defensa. El avión de combate F-35 entró en producción antes del primer vuelo de prueba, una decisión que el principal funcionario de adquisiciones del Departamento de Defensa, Frank Kendall, caracterizó más tarde como "negligencia en las adquisiciones" .52 Sin embargo, todo el programa de adquisiciones tomó 25 años desde su concepción inicial. hasta su primer despliegue operativo.53 El F-35 todavía no está en plena producción, 28 años después de su concepción inicial.54 El programa F-35 se movió demasiado rápido en algunas áreas, introduciendo riesgos innecesarios, incluso cuando estaba en general estorbado por el laborioso ritmo típico de los principales programas de adquisición de defensa. La lenta burocracia de los militares, por lo tanto, no es una defensa contra las pruebas de mala calidad y el despliegue prematuro.

Evitando los riesgos nocivos de la competencia de seguridad de IA

¿Qué pueden hacer los estados para evitar una carrera a la baja en materia de seguridad o una aceleración del ritmo de la guerra más allá del control humano? En ambos casos, existen incentivos compensatorios que empujan contra estas tendencias. Los militares desean sistemas confiables en el campo de batalla y un control efectivo sobre sus propias fuerzas. Hay varias acciones que los estados pueden tomar para fortalecer estos incentivos a fin de garantizar sistemas de IA robustos, seguros y controlables en sus propias instituciones, así como en las de otros países.

Primero, los estados deben invertir en procesos internos adecuados para probar, evaluar, verificar y validar los sistemas de IA, a fin de garantizar que los sistemas que están implementando sean robustos y seguros.55 Los estados deben fortalecer de manera similar sus procesos internos: doctrina, capacitación, sistema diseño y pruebas, interfaces hombre-máquina, etc., para mantener un control humano efectivo sobre las operaciones de combate.

En segundo lugar, los estados deben tomar medidas específicas para alentar a otros estados a hacer lo mismo a fin de mitigar los incentivos perversos para reducir las pruebas o ceder el control humano a las máquinas donde de otro modo no sería preferible. Tales acciones podrían incluir medidas voluntarias de transparencia sobre los procesos de TEVV, aunque sin duda habrá detalles técnicos que los estados no están dispuestos a compartir. Los Estados también podrían comunicar la importancia de la seguridad y confiabilidad de la IA y de mantener el control humano sobre las operaciones de combate, tanto públicamente como en canales diplomáticos internacionales como el Convento.sobre ciertas armas convencionales.57 Por ejemplo, en 2020 el Departamento de Defensa de EE. UU. publicó un conjunto de principios éticos para la IA.58 Las señales costosas, como invertir en investigación de seguridad de IA o procesos e infraestructura de TEVV, pueden ser incluso más efectivas para demostrar a otras naciones que un estado valora desplegar sistemas de IA seguros que operen bajo un control humano efectivo. Los Estados deben evitar mensajes que puedan incentivar a otros Estados a tomar atajos en estos procesos, como las afirmaciones de una "carrera armamentista de IA".

Por último, los estados deben explorar oportunidades para tomar medidas de cooperación que puedan mitigar estos riesgos. Lograr que los adversarios cooperen es intrínsecamente desafiante, pero los estados han logrado en el pasado regular la conducción de la guerra de diversas formas para mitigar el daño mutuo. Las declaraciones conjuntas, los códigos de conducta o las medidas de fomento de la confianza pueden ayudar a reducir los mayores peligros de la competencia de la IA y alentar a los estados a adoptar la IA de manera responsable.59

Estados Unidos ha hecho más hasta la fecha que cualquier otra nación para promover las normas que rodean el uso responsable de la IA, aunque el Departamento de Defensa podría ser más deliberado en su enfoque para abordar los riesgos de la competencia de la IA militar. Los líderes de defensa de EE. UU. Se han centrado principalmente en implementar y demostrar aplicaciones de inteligencia artificial en un esfuerzo por demostrar el valor de la inteligencia artificial en las operaciones militares. Esto es comprensible. El Departamento de Defensa tiene muchos desafíos prácticos para desplegar sistemas de IA incluso en aplicaciones de riesgo relativamente bajo, incluidos problemas con los datos, la infraestructura informática, la contratación y la financiación.60 Sin embargo, puede y debe hacer más para garantizar que, mientras compite en AI, lo hace de una manera que no genera riesgos innecesarios ni socava la estabilidad internacional.
Las señales costosas, como invertir en investigación de seguridad de IA o procesos e infraestructura de TEVV, pueden ser incluso más efectivas para demostrar a otras naciones que un estado valora desplegar sistemas de IA seguros que operen bajo un control humano efectivo.
El paso más importante que los líderes de defensa podrían tomar a corto plazo para mitigar los riesgos derivados de la competencia de la IA sería implementar los procesos internos necesarios para garantizar una VETE adecuada de los sistemas de IA. Una evaluación independiente ordenada por el Congreso en 2019 de los esfuerzos de inteligencia artificial del Departamento de Defensa realizada por la Corporación RAND encontró que los procesos actuales de TEVV no estaban "ni cerca de garantizar el rendimiento y la seguridad de las aplicaciones de inteligencia artificial, particularmente en lo que respecta a los sistemas críticos para la seguridad", y emitió recomendaciones para abordar esta brecha.61 De manera similar, un estudio independiente de 2020 dirigido por Michèle Flournoy y Avril Haines identificó una serie de pasos procesables que el departamento podría tomar para mejorar su IA TEVV.62 La Comisión Nacional de Seguridad en IA también concluyó que “la TEVV del legado tradicional sistemas no es suficiente "para proporcionar una garantía adecuada para los sistemas de IA, y que" se necesitará un tipo completamente nuevo de TEVV ".63 El informe emitió una serie de recomendaciones para mejorar la IA TEVV y establecer una" confianza justificada en los sistemas de IA "64.

El Departamento de Defensa debería adoptar las recomendaciones de estos informes para mejorar AI TEVV, un paso que no solo reforzaría la seguridad de sus sistemas de inteligencia artificial, sino también su efectividad. Además de aumentar los recursos y llamar la atención de los altos directivos, la mejora de la TEVV requerirá cambiar la forma en que los líderes superiores del Departamento de Defensa piensan sobre la construcción de sistemas de IA robustos, confiables y efectivos. A veces, los líderes de la defensa de alto nivel han caracterizado la seguridad y la ética como un obstáculo con el que Estados Unidos tiene que lidiar y que sus adversarios no lo hacen.65 Si bien es indudable que Rusia y China están menos preocupados por la ética, la seguridad o el derecho internacional que el Estados Unidos, garantizar que los sistemas de inteligencia artificial militares operen de manera efectiva y de una manera que sea consistente con la intención humana es una fortaleza a largo plazo, incluso si se necesitan procesos de TEVV más rigurosos a corto plazo para lograr ese objetivo.

Otro elemento para mitigar los riesgos de la competencia de la IA militar es con respecto a cómo los estados caracterizan a la IA. Los mensajes de EE. UU. Han sido consistentes y firmes sobre la necesidad de un uso responsable, legal, ético y seguro de la IA.66 Sin embargo, en sus mensajes, los formuladores de políticas de EE. UU. Se han abstenido con frecuencia de resaltar los riesgos de la competencia de IA militar, como los descritos en Este artículo. A veces, han enfatizado un deseo de velocidad que podría alimentar las preocupaciones del dilema de seguridad sobre una carrera hacia el campo que podría socavar la seguridad. En su artículo de 2020 Wired, Will Roper escribió: “Nuestra nación debe despertar rápido. Lo único peor que temer a la IA en sí es temer no tenerla ”67. Si bien pidió usar la IA“ de manera segura y eficaz ”, su énfasis primordial fue que el Departamento de Defensa se moviera más rápido.68

Es bastante comprensible que los legisladores estadounidenses que trabajan para acelerar la adopción de la inteligencia artificial en una burocracia esclerótica y de movimiento lento puedan estar reacios para retratar la tecnología como inmadura, no preparada o poco confiable. Además, los legisladores estadounidenses pueden temer que resaltar los riesgos de la IA militar podría contribuir a que los ingenieros de IA se nieguen a trabajar con los militares, incluso si esos temores son infundados.69 Sin embargo, al igual que otras tecnologías emergentes, como las redes informáticas, se abrieron nuevos desafíos estratégicos en En la forma de operaciones cibernéticas, los analistas de defensa deberían comenzar a pensar ahora en las formas en que la IA puede complicar la estabilidad internacional. Un reconocimiento directo de los riesgos de la competencia de IA militar es el primer paso hacia una estrategia de competir inteligentemente mientras se abordan esos riesgos. Reconocer los riesgos de la competencia de la IA militar no significa que Estados Unidos deba abstenerse de adoptar la IA más que reconocer los riesgos de estabilidad de competir en el espacio, el ciberespacio o las armas nucleares requiere un desarme unilateral en esas esferas. La respuesta de Estados Unidos a estos riesgos no debería ser abstenerse de la competencia de IA, sino más bien moldear el carácter de la competencia para que los estados, como mínimo, sean conscientes de estos riesgos.

La Comisión de Seguridad Nacional sobre IA ha demostrado cómo podría ser un enfoque de este tipo en la práctica. El informe de más de 700 páginas de la comisión emitió amplias recomendaciones para mejorar la competitividad de EE. UU. En IA y adopción militar, pero también dedicó un capítulo completo a "Sistemas de armas autónomos y riesgos asociados con la guerra habilitada por IA" .70 Con respecto a las preocupaciones de seguridad, el informe admitido:

Es probable que Rusia y China coloquen sistemas habilitados por IA que se han sometido a TEVV menos rigurosos que los sistemas estadounidenses comparables y pueden ser inseguros o poco confiables ... Estados Unidos debería ... destacar cómo la implementación de sistemas inseguros podría arriesgarse a una escalada inadvertida del conflicto [y] enfatizar la necesidad de realizar una TEVV.71 rigurosa

La comisión emitió una serie de recomendaciones para mitigar los riesgos de la competencia de IA, incluida la mejora de los procesos de TEVV del Departamento de Defensa y el trabajo con aliados para desarrollar "estándares internacionales de práctica para el desarrollo, prueba y uso de sistemas de armas autónomos y habilitados para IA" para reducir el riesgo de accidentes.72

Recientemente, el Departamento de Defensa ha tomado medidas positivas para enfatizar la seguridad de la IA y mejorar los procesos de TEVV. En mayo de 2021, la subsecretaria de Defensa Kathleen Hicks emitió un memorando sobre la implementación de la "IA responsable". El memorando lanzó una serie de estructuras burocráticas internas, que incluyen "establecer un marco de prueba y evaluación y verificación y validación que integra monitoreo en tiempo real, métricas de confianza de algoritmos y comentarios de los usuarios para garantizar capacidades de inteligencia artificial confiables y confiables" .73 Además, en público comentarios Hicks enfatizó la importancia de la “seguridad” de la IA. 74 Estos son pasos importantes y valiosos hacia el establecimiento de los procesos burocráticos necesarios para garantizar que los sistemas de IA militares de EE. UU. sean robustos y confiables, además de establecer un tono constructivo públicamente. Estados Unidos ha estado activo en la promulgación de normas sobre el uso responsable de la IA militar. Un enfoque deliberado para reconocer y mitigar los riesgos de la competencia de la IA no tiene por qué producirse a expensas de la adopción de la IA para mejorar la eficacia militar.

Idealmente, una evaluación franca de los riesgos de la competencia de la IA y la transparencia de los EE. UU. sobre las medidas que está tomando para mitigar estos riesgos abriría la puerta a medidas de cooperación entre los competidores. Puede haber una variedad de medidas de fomento de la confianza que los estados podrían adoptar para reducir los riesgos de la competencia de la IA.75 Ya se están llevando a cabo diálogos de “Vía II” entre expertos académicos para comprender mejor estos riesgos y posibles medidas de cooperación. Los futuros diálogos directos de gobierno a gobierno podrían explorar si existe la oportunidad de un terreno común. Las medidas de cooperación para reducir el riesgo dependerán de que otros estados como Rusia y China se comprometan de buena fe. Sin embargo, no hay garantía de que lo hagan. Lo que Estados Unidos puede hacer es mejorar sus propios procesos internos para AI TEVV y garantizar la responsabilidad humana. Estados Unidos también debería articular públicamente por qué sería beneficioso para otros estados cooperar para evitar algunos de estos riesgos mutuos. Incluso cuando Estados Unidos adopte la inteligencia artificial para mejorar su defensa nacional, debería tomar medidas, e incentivar a otros a que lo hagan también, para garantizar que los sistemas militares de inteligencia artificial sean seguros y que la guerra permanezca bajo un control humano efectivo.

Rusia: Rostec planea un caza furtivo monomotor y presenta a Argentina como potencial cliente



En la propaganda aparece un supuesto piloto argentino con el emblema del Grupo de Caza 5.



















martes, 13 de julio de 2021

Caza de sexta generación: El proyecto americano NGAD

Nuevo concepto de caza para la USAF: NGAD

Ryabov Kirill || Revista Militar



Nuevo concepto de un informe reciente de la Fuerza Aérea de EE. UU.

Desde hace varios años, la Fuerza Aérea y la industria de aviación estadounidense está trabajando en el programa NGAD (Next-Generation Air Dominance), cuyo objetivo es crear la próxima sexta generación de caza. La aparición de una máquina de este tipo aún se desconoce, pero los participantes del programa han publicado repetidamente varios conceptos. Recientemente, otra imagen similar ha entrado en acceso gratuito.

Según datos conocidos

La fuente de este último Noticias sobre el programa NGAD se convirtió en el reciente informe bienal de adquisiciones del Departamento del Aire en 2019-2020. llamado "Construyendo la Fuerza Digital". Este documento enumera todos los proyectos actuales, sus principales características, costos y plazos. Junto con otros programas, también se menciona el desarrollo de un luchador prometedor.

La página del programa NGAD contiene la descripción más general de los requisitos previos para el surgimiento del proyecto y las capacidades esperadas de la nueva aeronave. A diferencia de otros desarrollos, no se proporciona información sobre el momento del trabajo y su costo. Al mismo tiempo, se adjunta a la nota una imagen inédita de la aeronave en el aire, que demuestra algunas de las características de diseño y capacidades operativas.

Los autores del informe recuerdan que el proyecto NGAD utiliza enfoques prometedores para el diseño y la organización de la producción. Ayudarán a reducir el costo y la complejidad de la serie y la operación, además de garantizar que se logre el nivel de rendimiento requerido y la posibilidad de actualizaciones periódicas.

Cabe señalar que características similares del proyecto se han divulgado anteriormente y, a este respecto, el informe bienal no proporciona ninguna información nueva. Por tanto, en la nota sobre el programa NGAD, la ilustración es de gran interés. Muestra tanto las características propuestas como las completamente nuevas del proyecto. Sin embargo, no se sabe cuáles de ellos se incluirán en el proyecto real y cuáles simplemente son inventados por el artista.

Soluciones técnicas

La ilustración muestra un avión de un tipo inusual de diseño integral con características de un ala voladora y sin cola. La máquina tiene un ala en flecha, cuyos nódulos están conectados a la nariz del fuselaje. Las consolas de las alas son de planta trapezoidal. El borde de fuga roto se desliza debajo de las superficies de control y las boquillas. El avión tiene un par de quillas y son plegables; en algunos modos, deben colocarse en los nichos correspondientes del ala.

En el morro de la aeronave hay un fuselaje rudimentario de longitud limitada, en el que se ubica la cabina, probablemente compartimentos de equipos. A los lados del mismo se desarrollan góndolas de motor. Las tomas de aire se llevan a la parte superior del ala y están protegidas de la irradiación desde abajo. Las boquillas planas con deflectores de celosía se fabrican de manera similar. El avión tiene un par de turborreactores de tipo desconocido.



Concepto Lockheed Martin NGAD

Se muestra la posibilidad de transportar misiles aire-aire del tipo AIM-120. La ubicación de las armas en la bodega de carga interna se indica esquemáticamente; se encuentra debajo del conducto de entrada de aire.

Anteriormente, se afirmó repetidamente que la aeronave NGAD recibirá todas las capacidades de red necesarias y podrá trabajar como parte de grupos interespecíficos. Esto se confirma con una nueva ilustración: muestra convencionalmente la comunicación con otras aeronaves o satélites.

La imagen de la aeronave del informe Building the Digital Force también demuestra los enfoques propuestos para dar forma y modernizar la aeronave. El avión "real" se complementa con una copia virtual: se propone utilizarlo para las primeras pruebas y el desarrollo de nuevas soluciones. También se muestran los principios de reemplazo gradual de varias unidades y armas con el fin de aumentar constantemente sus características.

Las dimensiones, el peso y las características de rendimiento de esta versión de NGAD son difíciles de estimar. Probablemente, un avión de esta apariencia no será menos que el moderno F-22 y puede tener una gran masa. En consecuencia, se debe esperar un aumento en la carga de combate y una expansión de las capacidades operativas. Sin embargo, aún no se ha anunciado información de esta naturaleza.

Posibles beneficios

Se desconoce en qué medida el concepto publicado corresponde a los planes y deseos reales de la Fuerza Aérea de los Estados Unidos. Sin embargo, es bastante capaz de reflejar las opiniones actuales sobre el desarrollo de la aviación táctica y mostrar algunas ideas de un proyecto real. En consecuencia, es posible evaluar algunas de las cualidades tanto del concepto en sí como del NGAD real.

En primer lugar, la ilustración del informe muestra que el sigilo sigue siendo la cualidad clave del nuevo avión. La estructura y los contornos de la aeronave se forman teniendo en cuenta la reducción de la señal reflejada; posibilidad reducida de ser visto desde el suelo. Las quillas plegables son una solución interesante: dependiendo de las necesidades actuales, pueden reposar sobre el ala y reducir el RCS o subir a la posición de trabajo, aumentando las características de vuelo y maniobra.

El nuevo concepto prevé la conservación de la cabina. Se puede suponer que también implica la presencia de capacidades no tripuladas. Según diversas estimaciones, los cazas de la próxima generación 6 deberían recibir instalaciones de control remoto o autónomo. Se espera la introducción de la inteligencia artificial.


Una variante de un caza prometedor de Boeing

El programa NGAD utiliza un nuevo enfoque para el diseño y la organización de la producción, y el concepto divulgado lo refleja plenamente. La aeronave se convierte en un complejo modular con la capacidad de desarrollar e implementar rápidamente nuevos componentes. Esto afectará tanto a la electrónica como a las armas y otros sistemas. En particular, se espera la posibilidad de un reemplazo regular de motores por otros más nuevos.

Se espera que los nuevos métodos de desarrollo permitan que la aeronave se mantenga “a la vanguardia” en todo momento, pero al mismo tiempo simplificará y reducirá el costo de todas las etapas de su ciclo de vida. Se reducirá el tiempo para el desarrollo e implementación de nuevas modificaciones, incl. el tipo de remotorización más difícil.

Ilustraciones y realidad

El trabajo sobre el tema NGAD se ha estado desarrollando durante varios años y ha avanzado bastante. En 2019, el Pentágono revisó los proyectos propuestos e inició la siguiente fase de desarrollo. En septiembre de 2020, se informó que ya existe un demostrador de tecnología y se está probando, repitiendo las principales soluciones del proyecto principal. Un nuevo trabajo de un tipo u otro debería tener lugar en este momento, cuyos resultados se anunciarán más adelante.

La presencia de un demostrador de tecnología indica un grado bastante alto de desarrollo del proyecto. En consecuencia, en los próximos años debería aparecer un proyecto de combate completo, seguido del primer prototipo. Cuando esto ocurrirá no se especifica, sin embargo, el conocido ritmo de ejecución de la obra nos permite hacer las estimaciones más atrevidas.

Un prototipo puede aparecer ya en 2023-25, y luego el Pentágono tendrá que mostrarlo y revelar, al menos, información y características básicas. Gracias a esto, será posible estudiar y evaluar el NGAD terminado, así como comparar la apariencia real del caza con los conceptos publicados, incluido el último.



UCAV: Bayraktar Akinci ¿el futuro del Pucará?

Este desarrollo muestra hacia donde debe dirigir sus esfuerzos FAdeA y la FAA.

lunes, 12 de julio de 2021

Stalingrado: El asalto al elevador de granos

El elevador de granos - Stalingrado

W&W





Cuando Gruppe Edelsheim llega a la estación de trenes del sur alrededor de las 1600 horas, pasan cerca de lo que quizás se convierta en el edificio más emblemático de la Batalla de Stalingrado: el elevador de granos, visto elevándose aquí en el fondo. Se encontraba en el sector de la vecina 94. División, pero estaban retenidos y todavía muy lejos de ella. Sin embargo, al darse cuenta de su importancia táctica, Gruppe Edelsheim envió una pequeña fuerza a través del límite divisional para tomar el control del edificio, que encontraron desocupado.



Sin embargo, la tenencia alemana del gran silo fue de corta duración. Dirigido por el teniente mayor Polyakov, un grupo de 27 soldados de la 10a Brigada de fusileros soviéticos atacó a última hora de la tarde y recapturó el edificio, eliminando a los últimos defensores alemanes, que se habían escondido en el segundo piso, temprano el 16. Poco después, el Regimiento de Infantería 267 de la 94. División llegó al área y lanzó un ataque inmediato con la esperanza de recuperar la torre de almacenamiento. Sin embargo, cada asalto fue expulsado con grandes pérdidas. El Regimiento Infantil 274 se hizo cargo el 17, pero con igual éxito, por lo que se tomó la decisión de someter el edificio a la sumisión con artillería y bombarderos Stuka. Se introdujeron obuses, cañones antiaéreos de 8,8 cm (de Flak-Abteilung 602) y morteros pesados ​​en el área y comenzaron un golpeteo ininterrumpido de la estructura. Aquí un 10.5cm l. F. H. 18 del Artillerie-Regiment 194 acaba de disparar una ronda. A pesar del fuego devastador desatado contra ellos, los defensores rusos se encerraron dentro del ascensor (que también incluía restos del 35º Rifle de la Guardia y la 10ª División de la NKVD, reforzados durante la noche del 16/17 de septiembre por las tropas navales de la 92ª Brigada de Fusileros transportado a través del río) se mantuvo obstinado durante cuatro días más, resistiendo numerosos asaltos con tanques y lanzallamas, y no fue hasta la noche del 21 de septiembre que un ataque sorpresa desde el noroeste por Infanterie-Regiment 274 logró precipitarse el edificio, obligando a los sobrevivientes de la guarnición soviética a estallar. La 29. División de Infantería (mot.), Que para entonces sostenía la mitad sur del cordón alrededor de la estructura, tomó prisioneros a 104 de ellos, pero varios pequeños grupos de rusos lograron escapar a través del río. A medianoche, el elevador de granos estaba finalmente en manos alemanas.



Este plan de la ciudad de Stalingrado fue producido por el Reichsamt für Landesaufnahme (Oficina de prospección y cartografía del Reich), sobre la base de fotografías aéreas en septiembre de 1942. Hemos indicado los principales lugares que se presentaron en la batalla. [1] Fábrica de tractores Dzerzhinsky. [2] Fábrica de armas Barrikady. [3] Fábrica de Octubre Rojo. [4] Bloque de Schnellhefter. [5] Railway Loop ('La raqueta de tenis'). [6] Planta Química Lazur. [7] Mamayev Kurgan (colina 102). [8] Estación central de trenes. [9] Plaza de los Héroes Caídos ('Plaza Roja'). [10] Río Tsaritsa. [11] Estación de tren del sur. [12] Elevador de granos.



16-21 de septiembre de 1942

En el sur de Staingrado, grupos de batalla de la 24. División Panzer (general mayor Arno von Lenski) y 94. División Infanterie (Generalleutnant Georg Pfeiffer) estuvieron involucrados en aplastar la resistencia soviética cerca de la estación de tren del sur, mientras que la 29. Infanterie- Division (mot.) (Generalmajor Max Fremery) y 14. Panzer-Division (Generalmajor Ferdinand Heim) estaban sacando a los rusos de la Fábrica de Cuero en Kuporosnoye. Los defensores del sur se vieron aumentados por la presencia de un tren blindado, pero el día 16 los soviéticos se habían retirado al elevador de granos. Esta enorme estructura de hormigón dominaba toda la ciudad al sur de la Garganta de Tsaritsa, y rápidamente avanzó en la lista de objetivos de Alemania, ya que desde este punto de vista, el fuego de artillería preciso podría ser derribado en todas las unidades alemanas que operan hacia el este y el sur. de Minina

Cuando la 24. División Panzer golpeó hacia el norte a través del patio del ferrocarril para unirse con von Hartmann, la 94. División Infanterie tuvo dificultades crecientes con las tropas soviéticas en el Elevador de Granos. Aunque para el 16 eran solo 30 fuertes (la 35 División de Fusileros de la Guardia comenzó la batalla con 250 hombres), estaban causando un verdadero dolor de cabeza a los alemanes. Después de una llamada urgente de ayuda, la 92 Brigada de fusileros navales llegó esa noche y fue enviada inmediatamente al flanco izquierdo de Rodimtsev con un pelotón enviado para reforzar el elevador de granos.



EA: Curso de tiradores especiales

domingo, 11 de julio de 2021

Rifle antimaterial: Kurdistán fabrica sus propias armas en 14.5mm

Rifles antimaterial de fabricación artesanal en servicio con las YPG kurdas

Ian McCollum / Small Arms Defense Journal, V11N2, volumen 11


La lucha contra los artefactos explosivos transportados por vehículos


Las YPG (Unidades de Protección Popular) kurdas emplean varios rifles antimaterial (AMR) de fabricación artesanal, y ARES ha obtenido fotografías y detalles para varios ejemplos. Estas fotografías y la información contextual que las acompaña provienen de una fuente confidencial que sirvió en un tabor (pelotón) de francotiradores de las YPG desde junio de 2015 hasta agosto de 2016. Estas armas también son producidas por varias otras facciones que operan en Siria e Irak. como actores estatales y no estatales en otras zonas de conflicto. Las armas pequeñas y ligeras de fabricación artesanal, incluidos los rifles antimaterial como estos, se tratan ampliamente en un próximo informe redactado por el personal de ARES para Small Arms Survey.

En el uso de combate, estos rifles se utilizan principalmente para la defensa contra dispositivos explosivos improvisados ​​transportados por vehículos (VBIED), que cumplen una función secundaria como armas de contra-francotirador. La armadura VBIED generalmente se ha incrementado hasta el punto de que los calibres de rifle estándar utilizados por tiradores designados (típicamente 7.62x54Rmm y 7.62x51mm) no pueden detenerlos de manera confiable. En cambio, las YPG recurrieron a armas más pesadas. Siempre que estén disponibles, los rifles antimaterial modernos como el chino M99, Zastava M93 y Barrett M82 tienen una gran demanda, al igual que las armas sin retroceso de fuego directo y los lanzacohetes y las armas guiadas antitanques (ATGW). Para complementar estas armas escasas y más ampliamente útiles, el YPG ha desarrollado varios de sus propios diseños AMR autóctonos construidos alrededor de cañones tomados de ametralladoras pesadas y cañones ligeros.


Primer plano, 14,5 mm Şer Portative; Fondo 12,7 mm Zagros. Fotografía tomada el 7 de julio de 2016, batalla de Manbij.

Los dos rifles principales en servicio son el Zagros, con recámara de 12,7x108 mm, y el Şer (y más corto Şer Portative), con recámara de 14,5x114 mm. Se han construido armas conceptualmente similares en 23x152Bmm, pero el YPG determinó que eran demasiado masivas y voluminosas para ser prácticas. Sin embargo, el grupo Estado Islámico siguió empleando un puñado de armas de este calibre. Todos estos rifles se fabrican mediante la fabricación de pernos y receptores tubulares simples para que coincidan con los cañones de las pistolas de patrón DShKM, W-85 y KPV. En al menos un caso, se utilizó el cañón de una ametralladora pesada Kord. Los cañones pueden recuperarse de armas dañadas o inoperables, o pueden ser cañones de repuesto que acompañan a las armas funcionales, según las circunstancias. Los rifles resultantes son de un solo disparo.


Armamento de una unidad de francotiradores YPG de tres hombres. El primer plano es un Zagros de 12,7 mm, con dos Portatives Şer de 14,5 mm detrás, así como dos rifles Sako TRG-22 de 7,62 x 51 mm. Los rifles tipo Kalashnikov apoyados contra la pared son las armas individuales de los hombres. Foto tomada el 7 de julio de 2016, batalla de Manbij.

Según la fuente de ARES, el Şer Portative era una versión abreviada del Şer de 14,5 mm presentado a principios del verano de 2016 en un esfuerzo por hacer que este último sea más portátil. Según los informes, tuvo éxito en esto, aunque al precio de un retroceso de fieltro muy intenso y un estallido de boca. Además, se informa que han destruido miras ópticas en tan solo cinco rondas. Según los informes, el Zagros se reservó para su uso en distancias más largas, ya que era más cómodo para el usuario y más preciso de usar, porque se podía poner a cero con mayor precisión con una mira telescópica. El Şer de larga duración aparentemente se ha eliminado en gran medida del combate, ya que es demasiado voluminoso para un uso ofensivo, y su función se ha cambiado en gran medida para apoyar los ataques aéreos de las fuerzas CJTF-OIR.

Es importante tener en cuenta que todos estos rifles se utilizan casi exclusivamente con munición hecha para ametralladoras, en lugar de munición de precisión. Esto limitará la precisión potencial de las armas; sin embargo, es poco probable que reduzca su efectividad en las funciones anti-vehículo y anti-material para las que las YPG las usa. Es probable que la disponibilidad de AP, API y otros tipos de municiones especiales compense la precisión o exactitud limitadas.

Fotografías e información contextual cortesía de Ed Nash. Un agradecimiento especial a ImproGuns, Jonathan Ferguson y varias fuentes confidenciales.


Cuando Rusia ofertó Sukhoi Su-30SM a Argentina

sábado, 10 de julio de 2021

Aviones Argentinos: Horten y el IA-37

IA-37: la historia fallida del jet supersónico creado por un ingeniero de la Luftwaffe que emigró a Argentina en tiempos de Perón

El prototipo fue creado por Reimar Horten y llegó a volar en 1954. Sin embargo, la iniciativa terminó suspendida con el golpe de Estado de 1955. En Argentina, el diseñador alemán se convirtió en una eminencia mundial en la aeronáutica
Infobae



El avión supersónico IA-37, el proyecto de tecnología aeronáutica de avanzada de Reimar Horten.

Al finalizar la Segunda Guerra Mundial, Reimar Horten emigró a la Argentina y se radicó en abril de 1948 en Villa General Belgrano, Córdoba. Horten era un ingeniero especializado en aeronáutica en la Alemania nazi de Adolf Hitler. Junto a su hermano Walter contaban con un conocimiento codiciado en materia de defensa y aviación que, primero, desarrollaron de manera aficionada e independiente y luego en colaboración con el Ministerio de Aviación Alemán. Antes de emigrar, los hermanos construían aviones para la Luftwaffe, la poderosa fuerza área alemana que estuvo involucrada en los crímenes de guerra del Tercer Reich.

Los Horten diseñaron algunos de los aviones más avanzados de la década de 1940, incluyendo la primera de propulsión a chorro del mundo de ala volante, y el Horten Ho 229, un cazabombardero con una estructura revolucionaria futurista con la capacidad simultánea de transportar 1000 kilos de bombas y recorrer una distancia de 1600 km a 1000 km/h. La máquina incluía, además, una capa de carbono especial para volverlo invisible en la detección de radar.

Si bien ese prototipo llegó tarde para la evolución de la guerra, el diseño consagró la maestría de la dupla en la técnica aeronáutica y se convirtió en el antecesor Northrop Grumman B-2 Spirit, uno de los ala volantes militares más conocidos en actividad.

La Argentina del entonces presidente y teniente coronel Juan Domingo Perón los recibió con las puertas abiertas. Al igual que otros ingenieros, científicos y técnicos alemanes de la época, Horten negoció con el Reino Unido y China hasta que decidió reinsertarse en el país como contratado en la Fábrica Militar de Aviones (FMA). Su hermano Walter estuvo unos años pero no se quedó y se volvió a su país.

Eran tiempos de revolución aeronáutica. Durante la primera etapa, Reimar se enfocó a desarrollar dos modelos de planeadores (IA-34 “Clen Antú” e IA-41 “Urubú”), un transporte (IA-38) y un caza de reacción. El 19 de octubre de 1949, el brigadier Juan Ignacio San Martín, a cargo de la FMA (Fabrica Militar de Aviones) le presentó junto al ministro de Aeronáutica, brigadier César Ojeda, el expediente secreto 339 con el proyecto de Horten de un caza de reacción, ala doble delta, dos derivas en las alas que permita superar el Pulqui II. Ese proyecto no prosperó porque Argentina no podía construir dos aviones de reacción al mismo tiempo.


Reimar Horten, durante el período de la Alemania Nazi.

Sin embargo, Horten continuó. La apuesta fue el diseño de un avión supersónico de ala delta experimental, el IA-37.

En 1953, Reimar comenzó a efectuar pruebas. Hizo más de 200 lanzamientos de maquetas de entre 5 y 20 kg para pruebas aerodinámicas que alcanzaron los 200 km/hora. Un año después, el ingeniero construyó un IA-37 de madera a escala natural. La confección en madera era utilizada para probar la aerodinámica del diseño. Voló por primera vez un 1 de octubre remolcado con la ayuda de otros aviones. El piloto era el capitán Conan Doyle e iba acostado. Curiosamente para un avión planeado, el piloto comandaría el avión desde una posición boca abajo en la nariz del avión. En ese momento, la posición boca abajo estaba destinada a proteger a los pilotos de las fuerzas G durante las maniobras estrechas.

Según la crónica de la época, el vuelo fue excelente, con despegues y aterrizajes suaves.



Las etapas de pruebas fueron crucial, ya que las características de vuelo de los diseños de alas delta en general, y los diseños de alas voladoras específicamente, eran relativamente desconocidas. Con los años hubo algunas innovaciones y mejoras, como el cambio de la posición del piloto y los motores. Hubo dificultades en la compra y adquisición de insumos, como las turbinas de mayor potencia.

Finalmente, en 1960, cuando faltaba sólo un año para el vuelo del IA-37, el proyecto fue cancelado por falta de fondos. Así se puso terminó la chance de contar con un caza de reacción de diseño propio, algo que recién se lograría en 1984 con el IA-63 Pampa.



Reimar tuvo otros hitos en el diseño aeronáutico. Realizó otro desarrollo, el IA-38 “Naranjero”, basado en el proyecto alemán Horten Ho VIII. La intención era utilizarlo para transportar naranjas para la exportación. Sin embargo, tanto el IA-38 como el Naranjero eran comercialmente infructuosos.

En las décadas del ’60 y del ’70 Horten continuó vinculado al medio aeronáutico mundial. En 1962 viajó a Alemania y luego en 1964 regresó a la Argentina, donde trabajó como consultor en varios proyectos extranjeros. Estuvo involucrado en iniciativas como el Avro Vulcan, B-47, B-52 y el más importante de todos, el B-2.

Con el fin de la Segunda Guerra Mundial, los científicos e ingenieros alemanes fueron reclutados al servicio de los países vencedores. Argentina y Brasil también intentaron beneficiarse con estos conocimientos. De esta manera, al igual que Horten, otros militares y técnicos alemanes que colaboraron con el Tercer Reich fueron parte de la “migración científica” que se incorporaron a la vida local en Argentina, como Adolf Galland, general de la aviación; y Kurt Tank, un experimentado piloto de pruebas que estuvo a cargo del desarrollo del modelo Pulqui. Ese caza a reacción colocó a la Argentina en una vanguardia tecnológica junto a los Estados Unidos, la Unión Soviética y Suecia. Horten había colaborado en los proyectos de Kurt Tank.

Con el tiempo, Reimar Horten se convirtió en una referencia insoslayable en el país y del Instituto de Ingeniería Aeronáutica de Argentina (IAE), donde era profesor. “Inexplicablemente no ha sido ha sido reconocida ni mencionada debidamente su enorme y fecunda actividad como docente en las áreas de Aerodinámica, Performances y Mecánica del Vuelo en la entonces Escuela Superior de Aerotécnica”, escribió uno de sus ex alumnos, el ingeniero Luis Ortíz.

En una carta mecanografiada en perfecto español, fechada del 12 de abril de 1950, Reimar Horten hizo un repaso de su extenso currículum para postularse en el ingreso al sistema científico argentino. Él mismo destacaba que, en Alemania, llegó a construir 15 modelos propios y comentó que, frente a sus colegas críticos, no desistió en crear su modelo de avión preferido, el “ala volante”. En esa misiva, aclaraba: “No he tenido participación en la política y jamás pertenecí a un partido. Desde 1948 carezco de nacionalidad”.

En sus últimos años, Horten vivió en su casa de Atos Pampa, en el valle de Calamuchita, hasta que murió el 21 de agosto de 1993.



Malvinas: Juan Nazer enfrenta a la muerte saliendo del cerro Dos Hermanas

El joven oficial Juan "Grillo" Nazer se lanza a avisar a un camarada que la unidad se está replegando y tiene tres encuentros cercanos con la muerte en apenas media hora. Primero, una ráfaga le quema la espalda, luego una granada le destroza la pierna derecha y finalmente los ingleses se aprestan a fusilarlo. En una entrevista otorgada al corresponsal de guerra Nicolás Kasanzew, el entonces subteniente relata el intenso combate.