IA explicable en el control del tráfico aéreo: cuando la confianza depende de la experiencia y de la carga cognitiva
IA explicable en el control del tráfico aéreo: cuando la confianza depende de la experiencia y de la carga cognitiva
El estudio de Cartocci et al. (2026) aborda un tema cada vez más relevante en sistemas tecnológicos complejos: cómo los profesionales del control del tráfico aéreo reaccionan ante sistemas de inteligencia artificial explicable (XAI). El objetivo central del trabajo es comprender cómo la experiencia del usuario influye en tres dimensiones clave: carga de trabajo mental, aceptación de la IA e intención de uso.
En entornos críticos para la seguridad, como el control del tráfico aéreo, no basta con que los algoritmos sean precisos. Las recomendaciones generadas por la IA deben ser comprensibles, interpretables y operativamente útiles para quienes toman decisiones bajo presión temporal y cognitiva. Por ello, el estudio analiza si la explicabilidad realmente facilita la cooperación entre humanos y sistemas inteligentes.

cuando la confianza depende de la experiencia y de la carga cognitiva
Lo que muestra el estudio
La investigación examina cómo controladores aéreos con distintos niveles de experiencia interactúan con sistemas de IA explicable diseñados para apoyar la toma de decisiones operativas.
Los resultados muestran que:
la experiencia del operador influye significativamente en cómo se interpretan y aceptan las explicaciones de la IA
las explicaciones pueden reducir o aumentar la carga cognitiva dependiendo del nivel de expertise
la intención de utilizar el sistema depende de la claridad y utilidad de la explicación
Esto revela una conclusión importante: la explicabilidad no tiene el mismo efecto para todos los usuarios. Una explicación detallada puede resultar útil para un experto, pero excesiva para un operador con menos experiencia. Del mismo modo, explicaciones simplificadas pueden parecer insuficientes para profesionales altamente entrenados.
En consecuencia, los sistemas de IA explicable deberían adaptarse al perfil cognitivo del usuario.
Lectura desde la Neurociencia Decolonial
Desde la perspectiva de la Neurociencia Decolonial, este estudio cuestiona una suposición tecnocrática frecuente: que la incorporación de inteligencia artificial mejora automáticamente la toma de decisiones humanas.
Las decisiones humanas en contextos complejos no son únicamente cálculos lógicos. Involucran atención sostenida, percepción del contexto, memoria operativa, anticipación del riesgo y responsabilidad. Por ello, la interacción con sistemas de IA ocurre dentro de un marco de cognición encarnada.
Esto dialoga con el concepto de Mente Damasiana, donde los procesos mentales emergen de la integración entre interocepción, propiocepción y percepción del entorno (Damasio, 2018). En contextos operativos críticos, una decisión efectiva depende de mantener una integración estable entre regulación corporal y evaluación cognitiva.
En ese sentido, la IA explicable solo resulta verdaderamente útil cuando facilita esa integración en lugar de competir con ella.
Avatares interpretativos: Jiwasa y APUS
Dos avatares conceptuales ayudan a interpretar este estudio: Jiwasa y APUS.
Jiwasa representa la sincronización entre múltiples inteligencias que participan en una misma tarea. El control del tráfico aéreo no depende de un solo cerebro, sino de un sistema coordinado entre operadores humanos y sistemas tecnológicos.
APUS, asociado al concepto de cuerpo-territorio y propiocepción extendida, también es relevante. El controlador aéreo debe mantener una especie de conciencia espacial distribuida del territorio aéreo, anticipando trayectorias, conflictos potenciales y márgenes de seguridad.
Desde esta perspectiva, la IA explicable no debería actuar como un simple “oráculo algorítmico”, sino como una extensión coordinativa del territorio cognitivo del operador.
Conexión con los Eus Tensionales y las Zonas 1, 2 y 3
La dinámica descrita en el estudio puede interpretarse a través del concepto de Eus Tensionales, que describe estados funcionales de la mente frente a las demandas del entorno.
Zona 1
Estado operativo del trabajo cotidiano. El profesional monitorea información, prioriza tareas y toma decisiones rápidas.
Zona 2
Estado de cooperación fluida entre humano y sistema. Las explicaciones reducen fricción cognitiva y mejoran la claridad situacional.
Zona 3
Estado de sobrecarga o desconfianza. Explicaciones mal diseñadas pueden aumentar la carga mental o generar rechazo hacia el sistema.
El estudio sugiere que la explicabilidad debe diseñarse como un mecanismo de regulación de la carga cognitiva, no solo como transparencia técnica.
DREX Ciudadano y metabolismo cognitivo colectivo
Aunque el estudio se centra en sistemas tecnológicos, también revela un principio más amplio: el desempeño humano depende de estabilidad metabólica y cognitiva.
Cuando las personas viven bajo incertidumbre crónica, sobrecarga y presión constante, su capacidad de evaluar información y tomar decisiones complejas se reduce.
Dentro del concepto de DREX Ciudadano, garantizar una base mínima de estabilidad económica puede entenderse como un metabolismo básico del cuerpo social, similar a la energía que permite el funcionamiento saludable de las células.
Sociedades más estables permiten mayor claridad cognitiva, creatividad y cooperación en la toma de decisiones colectivas.
Nuevas preguntas para BrainLatam
¿Indicadores fisiológicos como EEG, HRV, respiración o SpO₂ pueden mostrar cuándo una explicación de IA ayuda o aumenta la carga mental?
¿Operadores expertos y novatos utilizan redes cerebrales diferentes al evaluar recomendaciones de IA?
¿Existe un punto en el que más explicación deja de ayudar y pasa a generar ruido cognitivo?
¿Sistemas de IA podrían adaptar el nivel de explicación según señales fisiológicas de carga mental?
¿La IA explicable mejora la sincronización entre operadores humanos en tareas cooperativas?
Posibles diseños experimentales
Una línea de investigación prometedora sería combinar EEG, HRV, seguimiento ocular y rendimiento conductual en simuladores de control aéreo, comparando diferentes formatos de explicación en operadores novatos y expertos.
Otra posibilidad sería desarrollar sistemas de explicabilidad adaptativa, donde la IA ajuste el nivel de detalle de la explicación según señales fisiológicas de carga cognitiva.
También sería relevante investigar equipos de trabajo completos, evaluando si la IA explicable mejora la coordinación colectiva en sistemas operativos complejos.
Conclusión BrainLatam
El estudio de Cartocci y colaboradores muestra un principio fundamental: una buena IA no es solo una IA precisa, sino una IA que logra sincronizarse con la cognición humana en contexto.
En dominios críticos como el control del tráfico aéreo, la explicabilidad no es un lujo tecnológico, sino una condición necesaria para la confianza, la adopción y la seguridad operativa.
Desde una perspectiva de Neurociencia Decolonial, esto implica reconocer que la tecnología debe respetar el cuerpo, la experiencia y la ecología cognitiva del ser humano. La inteligencia artificial no debería sustituir la decisión humana, sino coordinarse con ella.
Referencia
Cartocci, G., Veyrié, A., Cavagnetto, N., Hurter, C., Degas, A., Ferreira, A., Ahmed, M. U., Begum, S., Barua, S., Inguscio, B. M. S., Ronca, V., Borghini, G., Di Flumeri, G., Babiloni, F., & Aricò, P. (2026).
Explainable artificial intelligence in air traffic control: Effects of expertise on workload, acceptance, and usage intentions.
Brain Informatics, 13(1). https://doi.org/10.1186/s40708-025-00287-6
Explainable AI in Air Traffic Control: When Trust Depends on Experience and Mental Load
Cuando alfa se encuentra con teta: dinámica de frecuencia cruzada en la memoria de trabajo
When Alpha Meets Theta: Cross-Frequency Dynamics in Working Memory
Quando alfa encontra teta: a dinâmica cruzada que sustenta a memória de trabalho
Deep Sleep and the Infant Brain: Sensory Decoupling Depends on an Infant’s Sensory Profile
Sono profundo e cérebro infantil: o desacoplamento sensorial depende do perfil sensorial do bebê
GABA Dynamics Across Brain Networks in Autism: A Systems Perspective on Neural Regulation
Quando imaginamos falar, o cérebro já dança no ritmo da fala: o atraso motor-auditivo do ritmo Mu
Cuando el sonido guía al cuerpo: sincronía sensoriomotora y los ritmos del movimiento humano
When Sound Guides the Body: Sensorimotor Synchrony and the Rhythms of Human Movement
Quando o som guia o corpo: sincronia sensório-motora e os ritmos do movimento humano
Seeking Yourself or Losing Yourself?
Buscar-se ou perder-se? Zona 1, 2 e 3 entre drogas, narrativas e estados alterados de consciência
Una Latinoamérica libre - Neurociencia decolonial con estudios de hiperescaneo NIRS-EEG
Free Latin America - Decolonial Neuroscience with NIRS–EEG Hyperscanning
NIRS–EEG Hyperscanning para 5 Participantes

NIRS–EEG Hyperscanning for 5 Participants
#Decolonial
#Neuroscience
#ArtificialIntelligence
#HumanFactors
#Neuroergonomics
#CognitiveLoad
#Neuroscience
#AlphaWaves
#ThetaWaves
#BrainRhythms
#SensoryProcessing
#BabyBrain
#MuRhythm
#EmbodiedCognition
#DecisionMaking
#Consciousness
#Hyperscanning
#Multimodal
#EEG
#fNIRS
#CBDCdeVarejo
#PIX
#DREX
#DrexCidadão