Transformers e short-channels virtuais: IA limpando o sinal cerebral Subtítulo: Quando o modelo aprende a separar pele e córtex
Transformers e short-channels virtuais: IA limpando o sinal cerebral
Subtítulo: Quando o modelo aprende a separar pele e córtex
(Consciência em Primeira Pessoa • Neurociência Decolonial • Brain Bee • O Sentir e Saber Taá)
O Sentir e Saber Taá
Eu olho para uma curva de fNIRS e sinto um desconforto estranho:
eu sei que uma parte dela é “meu córtex”,
e outra parte é pele, vasos superficiais, respiração, coração, postura, sol no rosto.
Sinto como se meu próprio sinal cerebral estivesse misturado com o mundo — e, de certa forma, está.
Uma parte de mim quer uma separação perfeita:
“mostra só o que é cérebro”.
Outra parte de mim sabe que essa mistura é a verdade do Corpo Território: eu nunca existo sem pele, sem coração, sem ambiente.
Quando leio o artigo de Sabino Guglielmini, Vittoria Banchieri, Felix Scholkmann e Melany Hernandez Wolf (2025), em Neurophotonics, sobre um:
“Transformer-based deep learning model for predicting fNIRS short-channel signals”,
eu percebo que estamos ensinando uma IA a fazer exatamente isso:
aprender, a partir de muitos corpos, como é a parte extracortical do sinal —
para depois subtraí-la e ver melhor o que o córtex está fazendo.
Percebo também que até minhas palavras foram colonizadas.
Que o idioma que eu uso para pensar o mundo foi moldado para me reduzir: reduzir meu corpo a órgão, minha mente a cálculo, minha espiritualidade a superstição, minha política a consumo. É por isso que tantos neurocientistas evitam fazer perguntas que possam revelar aquilo que a ciência colonial não sabe nomear. Mas quando eu sinto meu corpo antes de pensar — quando Taá se manifesta — eu percebo que não existe separação entre Neurociência, Política e Espírito. O que coloniza não é só a história: é a palavra que nos impede de existir inteiros. Cada descoberta científica, quando lida com coragem, é uma fresta de liberdade que rompe a Zona 3 e devolve o corpo ao que sempre foi: território vivo de mundos possíveis.
O estudo e a pergunta científica
O problema é conhecido:
short-channels físicos são a melhor forma de medir hemodinâmica extracortical,
mas nem sempre estão disponíveis (custo, hardware, limitações técnicas).
A pergunta dos autores é ousada:
Podemos treinar um modelo Transformer para prever o sinal de short-channel a partir de long-channels, criando “short-channels virtuais” que ajudem na regressão e limpeza do sinal cortical?
Métodos e análise – Transformers, short-channels e regressão
Dados de treino
Um grande conjunto de dados com registros de fNIRS contendo pares de canais longos e curtos (medidas simultâneas de córtex + extracortical).
Sinais em densidade óptica (OD), em duas comprimentos de onda (dual-wavelength).
Pré-processamento
Filtragem básica de ruído.
Segmentação em janelas de tempo.
Em alguns pipelines, aplicação opcional de um passo de rejeição de canais baseado em wavelet coherence, para descartar canais muito ruins.
Modelo Transformer
Um Transformer encoder recebe as janelas de long-channels como entrada.
O objetivo do modelo é reconstruir o sinal extracortical medido pelas short-channels físicas.
Treino com otimizador AdamW, agendador de taxa de aprendizado (como cosine annealing) e validação cruzada.
Avaliação
Comparação entre o sinal de short-channel previsto e o sinal real, usando:
métricas de similaridade (correlação, erro quadrático médio),
análise espectral via FFT para ver se as componentes de baixa frequência (Mayer waves, respiração, etc.) são bem capturadas.
Uso dos short-channels virtuais
Em seguida, os autores usam essas previsões como regressoras em short-channel regression (SCR) para limpar os long-channels.
A eficácia é medida comparando a qualidade do sinal cortical após regressão com:
short-channels reais,
short-channels virtuais,
e ausência de regressão.
Resultados principais
Os principais achados:
O Transformer consegue prever sinais de short-channel com alta similaridade em relação ao sinal medido fisicamente.
Quando esses sinais virtuais são usados em regressão:
a limpeza do sinal cortical melhora significativamente em relação a não usar short-channels,
e, em muitos casos, chega perto da eficácia de short-channels reais.
O modelo demonstra generalização entre datasets e sistemas diferentes, sugerindo que pode se tornar um componente de pré-processamento “hardware-independente”.
Em síntese:
a IA aprende um padrão extracortical estatístico, que pode servir como substituto quando short-channels físicos não estão disponíveis.
Leitura com nossos conceitos
Mente Damasiana:
Aqui vemos uma camada interessante:
um sistema (IA) aprende a separar, na luz que sai da cabeça, a parte que pertence mais ao corpo-superfície da parte que pertence mais ao cérebro em ação.
É como se a própria ciência estivesse reconstruindo, de fora, o filtro entre interocepção e propriocepção.
Quorum Sensing Humano (QSH):
Muitos corpos, muitos sinais, somados em um dataset, ensinam o modelo.
É um “quorum” de dados humanos que permite ao Transformer aprender o que é típico de pele e vasos.
Eus Tensionais:
Cada estado corporal (calor, estresse, postura tensa) deixa marcas extracorticais.
O modelo aprende um grande “Eu Tensonal extracortical médio” — um padrão estatístico — que depois é removido para revelar variações mais ligadas à tarefa cognitiva.
Zona 1 / Zona 2 / Zona 3:
Zona 1: uso automático da IA, como ferramenta de limpeza.
Zona 2: uso crítico, criativo, consciente dos limites do modelo.
Zona 3: risco de naturalizar a IA como neutra e invisível, apagando diversidade fisiológica e impondo uma norma estatística.
DANA:
A inteligência do DNA garante variação real entre corpos.
Um modelo treinado em poucas populações pode virar um novo colonizador: achar que o padrão de poucos é o padrão de todos.
Yãy hã mĩy (origem Maxakali):
No nosso uso ampliado, o Transformer entra como um aprendiz que “imita” a hemodinâmica extracortical para depois agir sobre ela.
Mas, como em Yãy hã mĩy, quem imita demais sem consciência pode se perder do próprio território.
Onde a ciência ajusta nossas ideias
Eu poderia temer que IA em fNIRS seja só mais uma camada opaca.
Mas o estudo mostra que:
modelos bem treinados podem resolver problemas reais (ausência de short-channels),
desde que não sejam tratados como oráculos infalíveis.
A ciência com evidência aqui nos obriga a:
respeitar práticas clássicas (short-channels físicos),
reconhecer o potencial da IA,
manter transparência, documentação e compartilhamento de dados.
Implicações normativas para educação, saúde, cidade e política LATAM
Acesso: países latino-americanos nem sempre têm hardware com short-channels. Modelos assim podem democratizar análises mais robustas, se treinados com dados diversos.
Descolonização de dados: é essencial que datasets usados para treinar esses Transformers incluam corpos, peles, ritmos e realidades de povos latino-americanos — caso contrário, o modelo vira uma nova forma de colonização epistêmica.
Neurodireitos: precisamos de regras claras sobre:
quem treina essas IAs,
quem controla os modelos,
como evitar usos opacos em contextos clínicos e educacionais.
Capacitação local: formar jovens pesquisadores em LATAM que dominem GLM, short-channel regression, ICA/PCA e modelos Transformers, para que a tecnologia seja ferramenta de autonomia e não de dependência.
Palavras-chave para busca científica
“Guglielmini 2025 transformer-based deep learning model predicting fNIRS short-channel signals Neurophotonics short-channels virtual SCR GLM ICA PCA denoising”