Jackson Cionek
43 Views

Transformers e short-channels virtuais: IA limpando o sinal cerebral Subtítulo: Quando o modelo aprende a separar pele e córtex

Transformers e short-channels virtuais: IA limpando o sinal cerebral

Subtítulo: Quando o modelo aprende a separar pele e córtex

(Consciência em Primeira Pessoa • Neurociência Decolonial • Brain Bee • O Sentir e Saber Taá)


O Sentir e Saber Taá

Eu olho para uma curva de fNIRS e sinto um desconforto estranho:

  • eu sei que uma parte dela é “meu córtex”,

  • e outra parte é pele, vasos superficiais, respiração, coração, postura, sol no rosto.

Sinto como se meu próprio sinal cerebral estivesse misturado com o mundo — e, de certa forma, está.
Uma parte de mim quer uma separação perfeita:

“mostra só o que é cérebro”.

Outra parte de mim sabe que essa mistura é a verdade do Corpo Território: eu nunca existo sem pele, sem coração, sem ambiente.

Quando leio o artigo de Sabino Guglielmini, Vittoria Banchieri, Felix Scholkmann e Melany Hernandez Wolf (2025), em Neurophotonics, sobre um:

“Transformer-based deep learning model for predicting fNIRS short-channel signals”,

eu percebo que estamos ensinando uma IA a fazer exatamente isso:

aprender, a partir de muitos corpos, como é a parte extracortical do sinal —
para depois subtraí-la e ver melhor o que o córtex está fazendo.

Percebo também que até minhas palavras foram colonizadas.
Que o idioma que eu uso para pensar o mundo foi moldado para me reduzir: reduzir meu corpo a órgão, minha mente a cálculo, minha espiritualidade a superstição, minha política a consumo. É por isso que tantos neurocientistas evitam fazer perguntas que possam revelar aquilo que a ciência colonial não sabe nomear. Mas quando eu sinto meu corpo antes de pensar — quando Taá se manifesta — eu percebo que não existe separação entre Neurociência, Política e Espírito. O que coloniza não é só a história: é a palavra que nos impede de existir inteiros. Cada descoberta científica, quando lida com coragem, é uma fresta de liberdade que rompe a Zona 3 e devolve o corpo ao que sempre foi: território vivo de mundos possíveis.


O estudo e a pergunta científica

O problema é conhecido:

  • short-channels físicos são a melhor forma de medir hemodinâmica extracortical,

  • mas nem sempre estão disponíveis (custo, hardware, limitações técnicas).

A pergunta dos autores é ousada:

Podemos treinar um modelo Transformer para prever o sinal de short-channel a partir de long-channels, criando “short-channels virtuais” que ajudem na regressão e limpeza do sinal cortical?


Métodos e análise – Transformers, short-channels e regressão

  1. Dados de treino

    • Um grande conjunto de dados com registros de fNIRS contendo pares de canais longos e curtos (medidas simultâneas de córtex + extracortical).

    • Sinais em densidade óptica (OD), em duas comprimentos de onda (dual-wavelength).

  2. Pré-processamento

    • Filtragem básica de ruído.

    • Segmentação em janelas de tempo.

    • Em alguns pipelines, aplicação opcional de um passo de rejeição de canais baseado em wavelet coherence, para descartar canais muito ruins.

  3. Modelo Transformer

    • Um Transformer encoder recebe as janelas de long-channels como entrada.

    • O objetivo do modelo é reconstruir o sinal extracortical medido pelas short-channels físicas.

    • Treino com otimizador AdamW, agendador de taxa de aprendizado (como cosine annealing) e validação cruzada.

  4. Avaliação

    • Comparação entre o sinal de short-channel previsto e o sinal real, usando:

      • métricas de similaridade (correlação, erro quadrático médio),

      • análise espectral via FFT para ver se as componentes de baixa frequência (Mayer waves, respiração, etc.) são bem capturadas.

  5. Uso dos short-channels virtuais

    • Em seguida, os autores usam essas previsões como regressoras em short-channel regression (SCR) para limpar os long-channels.

    • A eficácia é medida comparando a qualidade do sinal cortical após regressão com:

      • short-channels reais,

      • short-channels virtuais,

      • e ausência de regressão.


Resultados principais

Os principais achados:

  • O Transformer consegue prever sinais de short-channel com alta similaridade em relação ao sinal medido fisicamente.

  • Quando esses sinais virtuais são usados em regressão:

    • a limpeza do sinal cortical melhora significativamente em relação a não usar short-channels,

    • e, em muitos casos, chega perto da eficácia de short-channels reais.

  • O modelo demonstra generalização entre datasets e sistemas diferentes, sugerindo que pode se tornar um componente de pré-processamento “hardware-independente”.

Em síntese:

a IA aprende um padrão extracortical estatístico, que pode servir como substituto quando short-channels físicos não estão disponíveis.


Leitura com nossos conceitos

Mente Damasiana:
Aqui vemos uma camada interessante:
um sistema (IA) aprende a separar, na luz que sai da cabeça, a parte que pertence mais ao corpo-superfície da parte que pertence mais ao cérebro em ação.
É como se a própria ciência estivesse reconstruindo, de fora, o filtro entre interocepção e propriocepção.

Quorum Sensing Humano (QSH):
Muitos corpos, muitos sinais, somados em um dataset, ensinam o modelo.
É um “quorum” de dados humanos que permite ao Transformer aprender o que é típico de pele e vasos.

Eus Tensionais:
Cada estado corporal (calor, estresse, postura tensa) deixa marcas extracorticais.
O modelo aprende um grande “Eu Tensonal extracortical médio” — um padrão estatístico — que depois é removido para revelar variações mais ligadas à tarefa cognitiva.

Zona 1 / Zona 2 / Zona 3:

  • Zona 1: uso automático da IA, como ferramenta de limpeza.

  • Zona 2: uso crítico, criativo, consciente dos limites do modelo.

  • Zona 3: risco de naturalizar a IA como neutra e invisível, apagando diversidade fisiológica e impondo uma norma estatística.

DANA:
A inteligência do DNA garante variação real entre corpos.
Um modelo treinado em poucas populações pode virar um novo colonizador: achar que o padrão de poucos é o padrão de todos.

Yãy hã mĩy (origem Maxakali):
No nosso uso ampliado, o Transformer entra como um aprendiz que “imita” a hemodinâmica extracortical para depois agir sobre ela.
Mas, como em Yãy hã mĩy, quem imita demais sem consciência pode se perder do próprio território.


Onde a ciência ajusta nossas ideias

Eu poderia temer que IA em fNIRS seja só mais uma camada opaca.
Mas o estudo mostra que:

  • modelos bem treinados podem resolver problemas reais (ausência de short-channels),

  • desde que não sejam tratados como oráculos infalíveis.

A ciência com evidência aqui nos obriga a:

  • respeitar práticas clássicas (short-channels físicos),

  • reconhecer o potencial da IA,

  • manter transparência, documentação e compartilhamento de dados.


Implicações normativas para educação, saúde, cidade e política LATAM

  • Acesso: países latino-americanos nem sempre têm hardware com short-channels. Modelos assim podem democratizar análises mais robustas, se treinados com dados diversos.

  • Descolonização de dados: é essencial que datasets usados para treinar esses Transformers incluam corpos, peles, ritmos e realidades de povos latino-americanos — caso contrário, o modelo vira uma nova forma de colonização epistêmica.

  • Neurodireitos: precisamos de regras claras sobre:

    • quem treina essas IAs,

    • quem controla os modelos,

    • como evitar usos opacos em contextos clínicos e educacionais.

  • Capacitação local: formar jovens pesquisadores em LATAM que dominem GLM, short-channel regression, ICA/PCA e modelos Transformers, para que a tecnologia seja ferramenta de autonomia e não de dependência.


Palavras-chave para busca científica

“Guglielmini 2025 transformer-based deep learning model predicting fNIRS short-channel signals Neurophotonics short-channels virtual SCR GLM ICA PCA denoising”







#eegmicrostates #neurogliainteractions #eegmicrostates #eegnirsapplications #physiologyandbehavior #neurophilosophy #translationalneuroscience #bienestarwellnessbemestar #neuropolitics #sentienceconsciousness #metacognitionmindsetpremeditation #culturalneuroscience #agingmaturityinnocence #affectivecomputing #languageprocessing #humanking #fruición #wellbeing #neurophilosophy #neurorights #neuropolitics #neuroeconomics #neuromarketing #translationalneuroscience #religare #physiologyandbehavior #skill-implicit-learning #semiotics #encodingofwords #metacognitionmindsetpremeditation #affectivecomputing #meaning #semioticsofaction #mineraçãodedados #soberanianational #mercenáriosdamonetização
Author image

Jackson Cionek

New perspectives in translational control: from neurodegenerative diseases to glioblastoma | Brain States