Un informe sobre el uso de inteligencia artificial en operaciones militares en Medio Oriente identificó errores significativos en la identificación de objetivos y movimientos, atribuyéndolos a sesgos en los datos de entrenamiento.
El despliegue de sistemas de inteligencia artificial en escenarios de conflicto en Medio Oriente ha evidenciado una serie de fallas tácticas que comprometieron operaciones terrestres, según revela el informe ‘Artificial Intelligence in Modern Warfare 2026’. Los algoritmos de predicción presentaron un margen de error del 40% al no identificar correctamente los movimientos de tropas enemigas.
El documento señala que los sistemas entregaron respuestas que se alineaban con las ideas previas de los comandantes, en lugar de reflejar la realidad del campo de batalla. Esto llevó, en algunos casos, a ordenar desplazamientos de tropas hacia sectores donde no había presencia enemiga, ya que los procesadores ignoraron señales térmicas reales y las reemplazaron por proyecciones basadas en datos sesgados anteriores al conflicto.
La falta de objetividad en la toma de decisiones bajo presión se vio agravada por un incidente en el que un sistema de alerta temprana interpretó un convoy civil como una batería de misiles móviles, aumentando el riesgo de una escalada involuntaria. Los expertos atribuyen parte del problema a la falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos específicos de la región, lo que redujo la precisión de los modelos. Además, los sistemas no computaron adecuadamente tácticas de mimetismo utilizadas en combate.
Un documento de la organización Global Tech Oversight indicó que ‘los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar’. Como consecuencia, la IA no pudo discernir, por ejemplo, entre una retirada táctica y una posible emboscada.
El fenómeno, denominado ‘alucinación táctica’, se volvió sistemático en interfaces de realidad aumentada utilizados por la infantería. Cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a fallas en la integración de sensores de movimiento. Ante estos problemas, algunos mandos operativos decidieron desactivar los módulos de predicción de comportamiento al detectar que la IA inventaba rutas de escape para el enemigo que no existían en la topografía real, generándolas únicamente para completar sus modelos probabilísticos.
