Beatriz Carvalho Frota
22 Views

IA explicable en el control del tráfico aéreo: cuando la confianza depende de la experiencia y de la carga cognitiva

IA explicable en el control del tráfico aéreo: cuando la confianza depende de la experiencia y de la carga cognitiva

El estudio de Cartocci et al. (2026) aborda un tema cada vez más relevante en sistemas tecnológicos complejos: cómo los profesionales del control del tráfico aéreo reaccionan ante sistemas de inteligencia artificial explicable (XAI). El objetivo central del trabajo es comprender cómo la experiencia del usuario influye en tres dimensiones clave: carga de trabajo mental, aceptación de la IA e intención de uso.

En entornos críticos para la seguridad, como el control del tráfico aéreo, no basta con que los algoritmos sean precisos. Las recomendaciones generadas por la IA deben ser comprensibles, interpretables y operativamente útiles para quienes toman decisiones bajo presión temporal y cognitiva. Por ello, el estudio analiza si la explicabilidad realmente facilita la cooperación entre humanos y sistemas inteligentes.


cuando la confianza depende de la experiencia y de la carga cognitiva
cuando la confianza depende de la experiencia y de la carga cognitiva

Lo que muestra el estudio

La investigación examina cómo controladores aéreos con distintos niveles de experiencia interactúan con sistemas de IA explicable diseñados para apoyar la toma de decisiones operativas.

Los resultados muestran que:

  • la experiencia del operador influye significativamente en cómo se interpretan y aceptan las explicaciones de la IA

  • las explicaciones pueden reducir o aumentar la carga cognitiva dependiendo del nivel de expertise

  • la intención de utilizar el sistema depende de la claridad y utilidad de la explicación

Esto revela una conclusión importante: la explicabilidad no tiene el mismo efecto para todos los usuarios. Una explicación detallada puede resultar útil para un experto, pero excesiva para un operador con menos experiencia. Del mismo modo, explicaciones simplificadas pueden parecer insuficientes para profesionales altamente entrenados.

En consecuencia, los sistemas de IA explicable deberían adaptarse al perfil cognitivo del usuario.


Lectura desde la Neurociencia Decolonial

Desde la perspectiva de la Neurociencia Decolonial, este estudio cuestiona una suposición tecnocrática frecuente: que la incorporación de inteligencia artificial mejora automáticamente la toma de decisiones humanas.

Las decisiones humanas en contextos complejos no son únicamente cálculos lógicos. Involucran atención sostenida, percepción del contexto, memoria operativa, anticipación del riesgo y responsabilidad. Por ello, la interacción con sistemas de IA ocurre dentro de un marco de cognición encarnada.

Esto dialoga con el concepto de Mente Damasiana, donde los procesos mentales emergen de la integración entre interocepción, propiocepción y percepción del entorno (Damasio, 2018). En contextos operativos críticos, una decisión efectiva depende de mantener una integración estable entre regulación corporal y evaluación cognitiva.

En ese sentido, la IA explicable solo resulta verdaderamente útil cuando facilita esa integración en lugar de competir con ella.


Avatares interpretativos: Jiwasa y APUS

Dos avatares conceptuales ayudan a interpretar este estudio: Jiwasa y APUS.

Jiwasa representa la sincronización entre múltiples inteligencias que participan en una misma tarea. El control del tráfico aéreo no depende de un solo cerebro, sino de un sistema coordinado entre operadores humanos y sistemas tecnológicos.

APUS, asociado al concepto de cuerpo-territorio y propiocepción extendida, también es relevante. El controlador aéreo debe mantener una especie de conciencia espacial distribuida del territorio aéreo, anticipando trayectorias, conflictos potenciales y márgenes de seguridad.

Desde esta perspectiva, la IA explicable no debería actuar como un simple “oráculo algorítmico”, sino como una extensión coordinativa del territorio cognitivo del operador.


Conexión con los Eus Tensionales y las Zonas 1, 2 y 3

La dinámica descrita en el estudio puede interpretarse a través del concepto de Eus Tensionales, que describe estados funcionales de la mente frente a las demandas del entorno.

Zona 1
Estado operativo del trabajo cotidiano. El profesional monitorea información, prioriza tareas y toma decisiones rápidas.

Zona 2
Estado de cooperación fluida entre humano y sistema. Las explicaciones reducen fricción cognitiva y mejoran la claridad situacional.

Zona 3
Estado de sobrecarga o desconfianza. Explicaciones mal diseñadas pueden aumentar la carga mental o generar rechazo hacia el sistema.

El estudio sugiere que la explicabilidad debe diseñarse como un mecanismo de regulación de la carga cognitiva, no solo como transparencia técnica.


DREX Ciudadano y metabolismo cognitivo colectivo

Aunque el estudio se centra en sistemas tecnológicos, también revela un principio más amplio: el desempeño humano depende de estabilidad metabólica y cognitiva.

Cuando las personas viven bajo incertidumbre crónica, sobrecarga y presión constante, su capacidad de evaluar información y tomar decisiones complejas se reduce.

Dentro del concepto de DREX Ciudadano, garantizar una base mínima de estabilidad económica puede entenderse como un metabolismo básico del cuerpo social, similar a la energía que permite el funcionamiento saludable de las células.

Sociedades más estables permiten mayor claridad cognitiva, creatividad y cooperación en la toma de decisiones colectivas.


Nuevas preguntas para BrainLatam

  1. ¿Indicadores fisiológicos como EEG, HRV, respiración o SpO₂ pueden mostrar cuándo una explicación de IA ayuda o aumenta la carga mental?

  2. ¿Operadores expertos y novatos utilizan redes cerebrales diferentes al evaluar recomendaciones de IA?

  3. ¿Existe un punto en el que más explicación deja de ayudar y pasa a generar ruido cognitivo?

  4. ¿Sistemas de IA podrían adaptar el nivel de explicación según señales fisiológicas de carga mental?

  5. ¿La IA explicable mejora la sincronización entre operadores humanos en tareas cooperativas?


Posibles diseños experimentales

Una línea de investigación prometedora sería combinar EEG, HRV, seguimiento ocular y rendimiento conductual en simuladores de control aéreo, comparando diferentes formatos de explicación en operadores novatos y expertos.

Otra posibilidad sería desarrollar sistemas de explicabilidad adaptativa, donde la IA ajuste el nivel de detalle de la explicación según señales fisiológicas de carga cognitiva.

También sería relevante investigar equipos de trabajo completos, evaluando si la IA explicable mejora la coordinación colectiva en sistemas operativos complejos.


Conclusión BrainLatam

El estudio de Cartocci y colaboradores muestra un principio fundamental: una buena IA no es solo una IA precisa, sino una IA que logra sincronizarse con la cognición humana en contexto.

En dominios críticos como el control del tráfico aéreo, la explicabilidad no es un lujo tecnológico, sino una condición necesaria para la confianza, la adopción y la seguridad operativa.

Desde una perspectiva de Neurociencia Decolonial, esto implica reconocer que la tecnología debe respetar el cuerpo, la experiencia y la ecología cognitiva del ser humano. La inteligencia artificial no debería sustituir la decisión humana, sino coordinarse con ella.


Referencia

Cartocci, G., Veyrié, A., Cavagnetto, N., Hurter, C., Degas, A., Ferreira, A., Ahmed, M. U., Begum, S., Barua, S., Inguscio, B. M. S., Ronca, V., Borghini, G., Di Flumeri, G., Babiloni, F., & Aricò, P. (2026).
Explainable artificial intelligence in air traffic control: Effects of expertise on workload, acceptance, and usage intentions.
Brain Informatics, 13(1). https://doi.org/10.1186/s40708-025-00287-6


IA explicable en el control del tráfico aéreo: cuando la confianza depende de la experiencia y de la carga cognitiva

Explainable AI in Air Traffic Control: When Trust Depends on Experience and Mental Load

IA explicável no controle de tráfego aéreo: quando a confiança depende da experiência e da carga mental

Cuando alfa se encuentra con teta: dinámica de frecuencia cruzada en la memoria de trabajo

When Alpha Meets Theta: Cross-Frequency Dynamics in Working Memory

Quando alfa encontra teta: a dinâmica cruzada que sustenta a memória de trabalho

Sueño profundo y cerebro infantil: el desacoplamiento sensorial depende del perfil sensorial del bebé

Deep Sleep and the Infant Brain: Sensory Decoupling Depends on an Infant’s Sensory Profile

Sono profundo e cérebro infantil: o desacoplamento sensorial depende do perfil sensorial do bebê

Dinámicas diferenciales del GABA en las redes cerebrales del autismo: una perspectiva sistémica sobre la regulación neural

GABA Dynamics Across Brain Networks in Autism: A Systems Perspective on Neural Regulation

GABA e a dinâmica das redes cerebrais no autismo: uma nova janela para entender a organização funcional do cérebro

Cuando imaginamos hablar, el cerebro mantiene el ritmo de la voz: el retraso motor–auditivo del ritmo Mu

When We Imagine Speaking, the Brain Still Follows the Rhythm of Speech: Motor–Auditory Delay of the Mu Rhythm

Quando imaginamos falar, o cérebro já dança no ritmo da fala: o atraso motor-auditivo do ritmo Mu

Cuando el sonido guía al cuerpo: sincronía sensoriomotora y los ritmos del movimiento humano

When Sound Guides the Body: Sensorimotor Synchrony and the Rhythms of Human Movement

Quando o som guia o corpo: sincronia sensório-motora e os ritmos do movimento humano

Cuando el córtex parietal pierde fuerza, la ambigüedad crece: una lectura decolonial sobre decisión, cuerpo e incertidumbre

When the Parietal Cortex Weakens, Ambiguity Grows: A Decolonial Reading of Decision, Body, and Uncertainty

Quando o córtex parietal perde força, a ambiguidade cresce: uma leitura decolonial sobre decisão, corpo e incerteza

¿Buscarse o perderse?

Seeking Yourself or Losing Yourself?

Buscar-se ou perder-se? Zona 1, 2 e 3 entre drogas, narrativas e estados alterados de consciência

Una Latinoamérica libre - Neurociencia decolonial con estudios de hiperescaneo NIRS-EEG

Free Latin America - Decolonial Neuroscience with NIRS–EEG Hyperscanning

NIRS–EEG Hyperscanning para 5 Participantes


NIRS–EEG Hyperscanning for 5 Participants
NIRS–EEG Hyperscanning for 5 Participants

#Decolonial
#Neuroscience
#ArtificialIntelligence
#HumanFactors
#Neuroergonomics
#CognitiveLoad
#Neuroscience
#AlphaWaves
#ThetaWaves
#BrainRhythms
#SensoryProcessing
#BabyBrain
#MuRhythm
#EmbodiedCognition
#DecisionMaking
#Consciousness
#Hyperscanning
#Multimodal
#EEG
#fNIRS
#CBDCdeVarejo
#PIX
#DREX
#DrexCidadão


#eegmicrostates #neurogliainteractions #eegmicrostates #eegnirsapplications #physiologyandbehavior #neurophilosophy #translationalneuroscience #bienestarwellnessbemestar #neuropolitics #sentienceconsciousness #metacognitionmindsetpremeditation #culturalneuroscience #agingmaturityinnocence #affectivecomputing #languageprocessing #humanking #fruición #wellbeing #neurophilosophy #neurorights #neuropolitics #neuroeconomics #neuromarketing #translationalneuroscience #religare #physiologyandbehavior #skill-implicit-learning #semiotics #encodingofwords #metacognitionmindsetpremeditation #affectivecomputing #meaning #semioticsofaction #mineraçãodedados #soberanianational #mercenáriosdamonetização
Author image

Jackson Cionek

New perspectives in translational control: from neurodegenerative diseases to glioblastoma | Brain States