Menú
Inicio
Visitar el Sitio Zona Militar
Foros
Nuevos mensajes
Buscar en los foros
Qué hay de nuevo
Nuevos mensajes
Última actividad
Miembros
Visitantes actuales
Entrar
Registrarse
Novedades
Buscar
Buscar
Buscar sólo en títulos
Por:
Nuevos mensajes
Buscar en los foros
Menú
Entrar
Registrarse
Inicio
Foros
Fuerzas Aéreas
Futuro de las Fuerzas Aéreas
Rumores y discusión sobre el próximo multirrol que no fue para la FAA
JavaScript is disabled. For a better experience, please enable JavaScript in your browser before proceeding.
Estás usando un navegador obsoleto. No se pueden mostrar estos u otros sitios web correctamente.
Se debe actualizar o usar un
navegador alternativo
.
Responder al tema
Mensaje
<blockquote data-quote="Autor" data-source="post: 3457821" data-attributes="member: 63989"><p>Primero buenas tardes a todos. </p><p></p><p>Quiero aprovechar este hilo para citar la frase de quienes nos enseñan, <strong><em>"ejecuta psicomotrizmente la accion de disparar pero no de investigar al blanco,de calificarlo,posicionarlo geograficamente y determinar cuando y como"</em></strong> . </p><p></p><p>Quiero asi presentar un tema mas filosofico, psicologico, o etica de un piloto de guerra, que hace a la mera existencia de ese rol. Quizás es off-topic aca, pero me derivan y me voy a donde me indiquen.</p><p></p><p></p><p><strong>Inteligencia Artificial (o Redes Neuronales para la toma de Decisiones en Escenarios Complejos)</strong> : La decisión de disparo, ya no es del piloto. Ni siquiera investiga, obedece o deja de hacerlo (a orden de disparo). Tal acción es meramente "psicomotriz". Y cuanto mas avanza del sistema de gestión de combate, mas dependencia de los centros de evaluación (que eventualmente termina en IA).</p><p></p><p>Hoy: la orden se la dan desde el <strong>AWACS</strong>, o bien el cual a su vez tiene el sistema de evaluación informatizado, y le indican la via mas adecuada de escape, en real-time, al momento, porque el escenario es cambiante, además. Incluso la <strong>doctrina SEAD</strong> , si no incluyera el ataque cibernético de centros de comandos aéreos, en donde quiera que los mismos se ubiquen (<em>me imagino a la OTAN con sus data-centers distribuidos por toda Europa y fuera de Europa, y con redundancia por todas partes</em>) , tiene que incluir la capacidad de anular eso, sino el riesgo es alto y la probabilidad de éxito , pequeña (puede fallar, todo sistema se puede estresar en los limites y explotar esos limites). </p><p></p><p>Entonces, pregunto yo, que no se nada, pero pienso : ¿Para que va un piloto a bordo de una nave, en esos momentos de ejecución de su misión, si no puede decidir por si mismo el disparar, habiendo evaluado todo? Le dejemos todo a las computadoras y listo, quien las fabrique y programe mejor, siempre ganaria. ¿Y si la evaluacion de la IA fallo? ¿Si el modelo de red neuronal utilizado fue cargado exactamente por el mismo enemigo que lo penetro? ¿Y si el piloto esta obedeciendo atacar a su propio pais, a su propio centro de mando por un AWACS infiltrado? </p><p></p><p>Yo digo que no podemos dejar de poner humanos en esa toma de decision para que no sea 100% dependiente de un sistema informatizado.</p><p></p><p>Que opinan?</p></blockquote><p></p>
[QUOTE="Autor, post: 3457821, member: 63989"] Primero buenas tardes a todos. Quiero aprovechar este hilo para citar la frase de quienes nos enseñan, [B][I]"ejecuta psicomotrizmente la accion de disparar pero no de investigar al blanco,de calificarlo,posicionarlo geograficamente y determinar cuando y como"[/I][/B] . Quiero asi presentar un tema mas filosofico, psicologico, o etica de un piloto de guerra, que hace a la mera existencia de ese rol. Quizás es off-topic aca, pero me derivan y me voy a donde me indiquen. [B]Inteligencia Artificial (o Redes Neuronales para la toma de Decisiones en Escenarios Complejos)[/B] : La decisión de disparo, ya no es del piloto. Ni siquiera investiga, obedece o deja de hacerlo (a orden de disparo). Tal acción es meramente "psicomotriz". Y cuanto mas avanza del sistema de gestión de combate, mas dependencia de los centros de evaluación (que eventualmente termina en IA). Hoy: la orden se la dan desde el [B]AWACS[/B], o bien el cual a su vez tiene el sistema de evaluación informatizado, y le indican la via mas adecuada de escape, en real-time, al momento, porque el escenario es cambiante, además. Incluso la [B]doctrina SEAD[/B] , si no incluyera el ataque cibernético de centros de comandos aéreos, en donde quiera que los mismos se ubiquen ([I]me imagino a la OTAN con sus data-centers distribuidos por toda Europa y fuera de Europa, y con redundancia por todas partes[/I]) , tiene que incluir la capacidad de anular eso, sino el riesgo es alto y la probabilidad de éxito , pequeña (puede fallar, todo sistema se puede estresar en los limites y explotar esos limites). Entonces, pregunto yo, que no se nada, pero pienso : ¿Para que va un piloto a bordo de una nave, en esos momentos de ejecución de su misión, si no puede decidir por si mismo el disparar, habiendo evaluado todo? Le dejemos todo a las computadoras y listo, quien las fabrique y programe mejor, siempre ganaria. ¿Y si la evaluacion de la IA fallo? ¿Si el modelo de red neuronal utilizado fue cargado exactamente por el mismo enemigo que lo penetro? ¿Y si el piloto esta obedeciendo atacar a su propio pais, a su propio centro de mando por un AWACS infiltrado? Yo digo que no podemos dejar de poner humanos en esa toma de decision para que no sea 100% dependiente de un sistema informatizado. Que opinan? [/QUOTE]
Insertar citas…
Verificación
Guerra desarrollada entre Argentina y el Reino Unido en 1982
Responder
Inicio
Foros
Fuerzas Aéreas
Futuro de las Fuerzas Aéreas
Rumores y discusión sobre el próximo multirrol que no fue para la FAA
Este sitio usa cookies. Para continuar usando este sitio, se debe aceptar nuestro uso de cookies.
Aceptar
Más información.…
Arriba