Mostrando las entradas con la etiqueta control de fuego. Mostrar todas las entradas
Mostrando las entradas con la etiqueta control de fuego. Mostrar todas las entradas
sábado, 8 de octubre de 2016
Vehículo de coordinación de fuego JFST Fennek en el Bundeswehr
Protección puntual para Afganistán - KMW le pone mano al JFST FENNEK
Un primer paso hacia la capacidad de guerra basada en redes
16:02 GMT March 11, 2010 Munich | Krauss-Maffei Wegmann (KMW) ha entregado el primer vehículo de producción en serie del Equipo de Apoyo de Fuego Conjunto (JFST) Fennek a la Oficina Federal Alemana de Tecnología de Defensa y Adquisiciones (BWB) y las Fuerzas Armadas en la Escuela de Artillería de Idar- Oberstein. Los vehículos cuentan con equipos especiales para las tareas de apoyo conjunto de fuego (JFS) y verá despliegue en Afganistán tan pronto como en abril de 2010. Más de un centenar de invitados asistieron a la ceremonia en la que el CEO de KMW Jürgen Weber entregó el nuevo Fennek JFST al presidente de la división BWB de Reinhard Schütt, así como al Comandante de la Escuela de Artillería, Brig. General Heriberto Hupka.
Sobre la base de la gran movilidad del vehículo todo terreno Fennek, el JFST coordina fuego indirecto de los activos terrestre, así como los sistemas de armas aéreo y de a bordo, aumentando así su eficacia. Dos configuraciones de vehículos diferentes trabajan juntos para proporcionar este apoyo vital: La configuración "tierra-tierra" como un observador de artillería y "aire-tierra" configuración como controlador aéreo. El JFST ofrece las Fuerzas Armadas Alemanas (Bundeswehr) con capacidad de mejorar significativamente para el reconocimiento, detección, identificación y evaluación de objetivos enemigos. Además, los vehículos se caracterizan por sus enlaces de comunicación además de las otras del Ejército, Fuerza Aérea y Armada de plataformas.
"Este sistema altamente sofisticado proporciona al Bundeswehr con una nueva capacidad, requiere con urgencia", dijo el CEO de Weber KMW. "Los enemigos pueden reconocidos, identificados y geográficamente situado a una distancia de cinco kilómetros durante el día y la noche. La información recopilada por la JFST es vital para las fuerzas del Ejército, la Fuerza Aérea y la Armada ". Un puntero láser y la iluminación, integrada en el sistema, mejorará la capacidad de utilizar municiones guiadas por láser con una función ampliada en el futuro.
Hasta el momento, un total de 20 vehículos se han ordenado que se entregarán hasta el 2011. El requisito general de la Bundeswehr asciende a 40 vehículos.
La configuración de observador de artillería Fennek ya ha sido desplegada con las tropas de la ISAF desde 2004. El nuevo sistema de "doble rol" cuenta con equipos de observación y reconocimiento extraordinariamente poderosos. Los vehículos disponen además un alto nivel de protección contra las minas y amenazas balísticas, así como contra la contaminación NBQ. Con un alcance de 850 kilometros de la tripulación de tres hombres que se puedan manejar de forma independiente para varios días. Al ser aerotransportable, el Fennek puede ser rápida y fácilmente desplegado en las zonas alejadas y remotas de la operación.
Fuente
domingo, 15 de febrero de 2015
Robots militares: Hasta dónde y cuando darles autonomía y en qué grado
Think Tank publica informe sobre los tanques que piensan
Cómo hablar de los robos asesinos que toman sus propias desiciones
Por Kelsey D. Atherton - Popular Science
Modelo de vehículo robótico abandonado
Ninguna tecnología militar es tal vez más visceralmente perturbadora que la idea de una máquina, armado con una pistola, por lo que la decisión por sí solo para matar a la gente. Es un tema a través de la ficción distópica y películas, y el anime protestas contra drones, a pesar del hecho de que los drones militares todavía tienen los seres humanos en los controles. Autonomía para armas - en la que se programan una torreta o futura máquina para presionar el gatillo de su propio - es una posibilidad definida en las guerras futuras. Un nuevo informe (leerlo al final de este post) del Center for New American Security, un think tank con sede en Washington DC, quiere guiarnos con calma en la comprensión de este futuro de máquinas pensantes armados.
Para facilitar la digestión, el informe analiza la gran pregunta de robots asesinos en preguntas más pequeños. La primera es acerca de la naturaleza de la autonomía en sí cuando se trata de máquinas.
La autonomía es compleja, pero cuando se habla de máquinas, los aspectos más importantes giran en torno a que controles los seres humanos todavía deben reservarse sobre la tecnología y qué decisiones la máquina puede producir por sí misma. Todos, desde el Pentágono para abajo están bastante preocupados por asegurarse de que los seres humanos estén involucrados cuando se trata de tomar decisiones letales, y los funcionarios definitivamente no quieren sólo robots metan mano a cualquier tipo de armas, mucho menos a las súper mortales.
El término técnico para mantener humanos involucrados es "en el circuito," pero es donde los seres humanos se ubican en este bucle lo que más importa. Un robot que explora el entorno buscando objetivos y le pregunta a un ser humano, para su aprobación antes de disparar en cada uno es diferente, por ejemplo, a un robot en el campo de batalla preguntando si puede seleccionar y atacar objetivos por su cuenta. Estas son preguntas que los pensadores militares, los diseñadores de robots y personas de redacción nuevas leyes de la guerra todos tendremos que pensar, así que es bueno tener las preguntas enmarcadas derecha en la delantera.
Los autores del informe, Paul Scharre y Michael C. Horowitz, descomponen más la ubicación "en el bucle". El misil que identifica los objetivos, pero pide autorización antes del disparo es "humano en el proceso", mientras que una máquina que recoge los objetivos y los ataca en sí misma es "humano fuera del bucle." Hay un término medio, sin embargo, disparar automáticamente armas defensivas, como una batería de misiles antimisiles que necesita para disparar ser más rápida de lo que un ser humano puede reaccionar o de lo contrario no funcionará. Scharre y Horowitz se refieren a las armas de este tipo como "humano en el bucle." En estos casos, un arma puede disparar sin la aprobación humana, pero el ser humano puede detener los futuros disparos.
Lo importante de estas distinciones es que son, al igual que la propia autonomía, cuestiones de grado. Tallando la autonomía en categorías, hace posible que los planificadores de defensa, legisladores y grupos de derechos humanos traten los tipos de forma diferente, especialmente la más amenazante "humanos fuera del bucle".
Si los robots militares van a ser parte de las guerras del futuro, es bueno tener una terminología común para entender que robots hacen qué. "An Introduction to Autonomy in Weapon Systems [Una introducción a la Autonomía en Sistemas de Armas]" no ofrece todas las respuestas para cómo el mundo y militar deben tratar a los robots autónomos, sino que establece un vocabulario útil para cualquier persona que quiera tener esa conversación en el futuro.
Cómo hablar de los robos asesinos que toman sus propias desiciones
Por Kelsey D. Atherton - Popular Science
Modelo de vehículo robótico abandonado
Ninguna tecnología militar es tal vez más visceralmente perturbadora que la idea de una máquina, armado con una pistola, por lo que la decisión por sí solo para matar a la gente. Es un tema a través de la ficción distópica y películas, y el anime protestas contra drones, a pesar del hecho de que los drones militares todavía tienen los seres humanos en los controles. Autonomía para armas - en la que se programan una torreta o futura máquina para presionar el gatillo de su propio - es una posibilidad definida en las guerras futuras. Un nuevo informe (leerlo al final de este post) del Center for New American Security, un think tank con sede en Washington DC, quiere guiarnos con calma en la comprensión de este futuro de máquinas pensantes armados.
Para facilitar la digestión, el informe analiza la gran pregunta de robots asesinos en preguntas más pequeños. La primera es acerca de la naturaleza de la autonomía en sí cuando se trata de máquinas.
La autonomía es compleja, pero cuando se habla de máquinas, los aspectos más importantes giran en torno a que controles los seres humanos todavía deben reservarse sobre la tecnología y qué decisiones la máquina puede producir por sí misma. Todos, desde el Pentágono para abajo están bastante preocupados por asegurarse de que los seres humanos estén involucrados cuando se trata de tomar decisiones letales, y los funcionarios definitivamente no quieren sólo robots metan mano a cualquier tipo de armas, mucho menos a las súper mortales.
El término técnico para mantener a los humanos implicados es "en el circuito," pero es donde los seres humanos se ubican en este bucle lo que más importa
El término técnico para mantener humanos involucrados es "en el circuito," pero es donde los seres humanos se ubican en este bucle lo que más importa. Un robot que explora el entorno buscando objetivos y le pregunta a un ser humano, para su aprobación antes de disparar en cada uno es diferente, por ejemplo, a un robot en el campo de batalla preguntando si puede seleccionar y atacar objetivos por su cuenta. Estas son preguntas que los pensadores militares, los diseñadores de robots y personas de redacción nuevas leyes de la guerra todos tendremos que pensar, así que es bueno tener las preguntas enmarcadas derecha en la delantera.
Los autores del informe, Paul Scharre y Michael C. Horowitz, descomponen más la ubicación "en el bucle". El misil que identifica los objetivos, pero pide autorización antes del disparo es "humano en el proceso", mientras que una máquina que recoge los objetivos y los ataca en sí misma es "humano fuera del bucle." Hay un término medio, sin embargo, disparar automáticamente armas defensivas, como una batería de misiles antimisiles que necesita para disparar ser más rápida de lo que un ser humano puede reaccionar o de lo contrario no funcionará. Scharre y Horowitz se refieren a las armas de este tipo como "humano en el bucle." En estos casos, un arma puede disparar sin la aprobación humana, pero el ser humano puede detener los futuros disparos.
Lo importante de estas distinciones es que son, al igual que la propia autonomía, cuestiones de grado. Tallando la autonomía en categorías, hace posible que los planificadores de defensa, legisladores y grupos de derechos humanos traten los tipos de forma diferente, especialmente la más amenazante "humanos fuera del bucle".
Si los robots militares van a ser parte de las guerras del futuro, es bueno tener una terminología común para entender que robots hacen qué. "An Introduction to Autonomy in Weapon Systems [Una introducción a la Autonomía en Sistemas de Armas]" no ofrece todas las respuestas para cómo el mundo y militar deben tratar a los robots autónomos, sino que establece un vocabulario útil para cualquier persona que quiera tener esa conversación en el futuro.
Suscribirse a:
Entradas (Atom)