[ICLR 2025]Biologically Plausible Brain Graph Transformer

news2025/4/8 21:59:27

论文网址:Biologically Plausible Brain Graph Transformer

英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用

目录

1. 心得

2. 论文逐段精读

2.1. Abstract

2.2. Introduction

2.3. Preliminaries

2.3.1. Problem Definition

2.3.2. Graph Transformers

2.4. Biologically Plausible Brain Graph Transformer

2.4.1. Network Entanglement-based Node Importance Encoding

2.4.2. Functional Module-Aware Self-Attention

2.5. Experiments

2.5.1. Experimental Setup

2.5.2. Results

2.5.3. Ablation Studies

2.5.4. Comparative Analysis of Node Importance Measurement

2.5.5. Biological Plausibility Analysis

2.6. Related Work

2.6.1. Brain Graph Analysis

2.6.2. Graph Transformers

2.7. Conclusion

1. 心得

(1)慎看,感觉很物理,需要一定基础,什么量子纠缠。我不是很懂纠缠

(2)(题外话)我将diss所有沙壁审稿人,我论文和这篇ICLR2025效果几乎一模一样(对比模型一样数据集一样结果一样),审稿人说我“你的模型二分类才70多太糟糕了”/“几乎没有提升”/“性能平平”,对我复现的论文,从这篇可以看到BrainGNN在ABIDE上就是五十多,GAT也是。审稿人说我“故意压低基线”/“和原论文极大不符,疑似学术造假~”/“怀疑结果真实性”。先四格🐎吗审稿人宝宝们?已读不回是审稿人宝宝们论文都被拒了是吧~

(3)先放表。能不能告诉全世界ABIDE数据集在2025年就是这个β样子:

(4)文尾有drama事件。BNT惨遭无辜炮轰。

2. 论文逐段精读

2.1. Abstract

        ①Existing works fail to represent brain framework

2.2. Introduction

        ①(a) Hub and functional modules, and (b) functional connectivity (FC) in different brain regions of ADHD:

2.3. Preliminaries

2.3.1. Problem Definition

        ①Graph: G=(V,E,\mathbf{X}), with node set V, dege set E, feature matrix \mathbf{X}\in\mathbb{R}^{n\times d}, and n ROIs (nodes)

2.3.2. Graph Transformers

        ①Transformer block: an attention module and a feed-forward network (FFN)

        ②Attention mechanism with \mathbf{W}_{Q}\in\mathbb{R}^{d\times d_{\mathcal{K}}},\mathbf{W}_{K}\in\mathbb{R}^{d\times d_{\mathcal{K}}},\mathbf{W}_{V}\in\mathbb{R}^{d\times d_{\mathcal{K}}}:

\mathbf{Q}=\mathbf{X}\mathbf{W}_Q,\quad\mathbf{K}=\mathbf{X}\mathbf{W}_K,\quad\mathbf{V}=\mathbf{X}\mathbf{W}_V

\mathbf{A}=\frac{\mathbf{QK}^{\mathsf{T}}}{\sqrt{d_{\mathcal{K}}}},\quad Attn(\mathbf{X})=softmax(\mathbf{A})\mathbf{V}

where \mathbf{A} denotes similarity between queries and keys

        ③Output of attention blocks:

\tilde{\mathbf{X}}=\mathbf{X}+Attn(\mathbf{X}),\quad\hat{\mathbf{X}}=\mathbf{W}_{2}ReLU(\mathbf{W}_{1}\tilde{\mathbf{X}})

2.4. Biologically Plausible Brain Graph Transformer

        ①Rewrite \tilde{\mathbf{X}}=\mathbf{X}+Attn(\mathbf{X}) to:

\tilde{\mathbf{x}}_i=\Phi(\mathbf{x}_i)+\mathrm{FM-}Attn(i)

(FM后面是短横线,不是减号)where \Phi(\cdot) denotes a network entanglement-based node importance encoding method

        ②Overall framework of BioBGT:

2.4.1. Network Entanglement-based Node Importance Encoding

        ①Normalized information diffusion propagator:

\rho_{G}=\frac{e^{-\gamma\mathbf{L}}}{Z}

where e^{-\gamma\mathbf{L}} denotes information diffusion propagator, \gamma denotes positive parameter, \mathbf{L} is Laplacian matrix, Z=\mathrm{Tr}(e^{-\gamma\mathrm{L}}) is the partition function

        ②von Neumann entropy, to capture global topology and information diffusion process of graphs:

\mathcal{S}(G)=-Tr(\rho_G\log_2\rho_G)

where \mathcal{S}(G) is the density matrix-based spectral entropy, Tr\left ( \cdot \right ) denotes the trace operation computing the trace of the product of the density matrix \rho _G and its natural logarithm

        ③Node importance (node entanglement value (VE value)):

\mathcal{NE}(i)=\|\mathcal{S}(G_{i})-\mathcal{S}(G)\|

where G_i is the i-control graph obtained after the perturbation of node i

        ④To approximate NE value:

\mathcal{NE}(i)\approx \begin{Vmatrix} \frac{2m\gamma n^2}{\ln2(n-\alpha)^2}\frac{\Delta Z}{ZZ_i}+\log_2(\frac{Z_i}{Z}) \end{Vmatrix}

where n and m is node number and edge number respectively, \Delta Z=Z_{i}-Z

        ⑤Node representation:

\mathbf{x^{\prime}}_{i}=\Phi(\mathbf{x}_{i})=\mathbf{x}_{i}+\mathbf{x}_{\mathcal{NE}(i)}

where \mathbf{x}_{\mathcal{NE}(i)} denotes learnable embedding vector specified by \mathcal{N}\mathcal{E}(i)

2.4.2. Functional Module-Aware Self-Attention

(1)Community Contrastive Strategy-based Functional Module Extractor

        ①Updating \mathbf{x^{\prime}}_{i} by \mathbf{h}_i:=\psi(i,\mathcal{M}_i), where \psi \left ( \cdot \right ) denotes functional module extractor and \mathcal{M}_i is functional module node i belongs to

        ②Augment graph G to G^1 and G^2 by edge drop

        ③Employing contrastive learning by regarding nodes in the same functional module as positive sample and in the different functional module as negative. They use InfoNCE loss:

\mathcal{L}=-\frac{1}{n}\sum_{i=1}^{n}\log\frac{exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{i}^{pos}))}{\sum_{j=1}^{n^{\mathrm{Neg}}}exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{j}^{1}))+\sum_{j=1}^{n^{\mathrm{Neg}}}exp(Sim(\mathbf{h}_{i}^{1},\mathbf{h}_{j}^{2}))}

where node features are represented as \mathbf{h}_i^j in graph G^j

(2)Updated Self-Attention Mechanism

        ①Attention module with exponential kernels:

\mathrm{FM-}Attn(i)=\sum_{j\in V}\frac{exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{i},\mathbf{W}_{K}\mathbf{h}_{j}\rangle/\sqrt{d_{\mathcal{K}}}\right)}{\sum_{u\in V}exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{i},\mathbf{W}_{K}\mathbf{h}_{u}\rangle/\sqrt{d_{\mathcal{K}}}\right)}f(\mathbf{h}_{j})

where exp\left(\langle\mathbf{W}_{Q}\mathbf{h}_{a},\mathbf{W}_{K}\mathbf{h}_{b}\rangle/\sqrt{d_{\mathcal{K}}}\right) denotes non-negative kernel, \langle\cdot,\cdot\rangle is dot product, f\left ( \cdot \right ) is linear value function

        ②Functional module-aware self-attention bound:

\|F\boldsymbol{M}Attn(a)-F\boldsymbol{M}Attn(b)\|\leq C_{\mathcal{M}}\|\mathbf{h}_a-\mathbf{h}_b\|

where \mathbf{h}_a:=\psi(a,\mathcal{M}_a) and \mathbf{h}_{b}:=\psi(b,\mathcal{M}_{b}) are representations of nodes a and b after the functional module extractor

2.5. Experiments

2.5.1. Experimental Setup

(1)ABIDE Dataset

        ①Subjects: 1009 with 516 ASD and 493 NC

        ②Brain atlas: Craddock 200

(2)ADNI Dataset

        ①Subjects: 407 with 190 NC, 170 MCI and 47 AD

        ②Brain atlas: AAL 90

(3)ADHD-200

        ①Subjects: 459 with 230 NC and 229 ADHD

        ②Brain atlas: CC200(但作者在这只用了190个?)

(4)Setting

        ①Brian graph construction: Pearson correlation

        ②Threshold applied

        ③Optimizer: AdamW

        ④Loss: BCE loss

        ⑤Data split: 0.8/0.1/0.1

2.5.2. Results

        ①Performance:

2.5.3. Ablation Studies

        ①Module ablation:

2.5.4. Comparative Analysis of Node Importance Measurement

        ①Encoder ablation:

2.5.5. Biological Plausibility Analysis

        ①The NE and NEff values of 50 randomly selected nodes from a sample in the ABIDE dataset:

        ②The heatmaps of the average self-attention scores:

2.6. Related Work

2.6.1. Brain Graph Analysis

        ①虽然我不厨Kan Xuan,也不推BrainNetworkTransformer,但BioBGT说:

无辜的BNT独自承担了一切。BNT原文:

        ②我很难得看一下相关工作,不要一看就很...(方便起见放中文了,左边BioBGT右边BNT。BNT人家也有在认真聚类好吧。虽然没有觉得BNT牛到哪里去但是给了代码+效果是真的不错所以嘎嘎点赞啊)

2.6.2. Graph Transformers

        ①介绍了一些相关的

2.7. Conclusion

        ~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2329491.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot+MyBatis Plus+PageHelper+vue+mysql 实现用户信息增删改查功能

静态资源展示 (1)静态资源下载 (2)下载后文件放到resources/static 目录下 (3) main函数启动项目访问对应文件,http://127.0.0.1:8080/user-list.html 数据库添加表和数据 SET FOREIGN_KEY_CHECKS0;-- --------…

企业常用Linux服务搭建

1.需要两台centos 7服务器,一台部署DNS服务器,另一台部署ftp和Samba服务器。 2. 部署DNS 服务器​ #!/bin/bash# 更新系统 echo "更新系统..." sudo yum update -y# 安装 BIND 和相关工具 echo "安装 BIND 和相关工具..." sudo y…

Qwen-7B-Chat 本地化部署使用

通义千问 简介 通义千问是阿里云推出的超大规模语言模型,以下是其优缺点: 优点 强大的基础能力:具备语义理解与抽取、闲聊、上下文对话、生成与创作、知识与百科、代码、逻辑与推理、计算、角色扮演等多种能力。可以续写小说、编写邮件、解…

QGIS获取建筑矢量图-Able Software R2V

1.QGIS截图 说明:加载天地图矢量图层,然后进行截图。 2.Able Software R2V 说明:Able Software R2V 是一款​​将光栅图像(如扫描图纸、航拍照片)自动转换为矢量图形(如DXF格式)​​的软件&a…

form实现pdf文件转换成jpg文件

说明: 我希望将pdf文件转换成jpg文件 请去下载并安装 Ghostscript,gs10050w64.exe 配置环境变量:D:\Program Files\gs\gs10.05.0\bin 本地pdf路径:C:\Users\wangrusheng\Documents\name.pdf 输出文件目录:C:\Users\wan…

STM32单片机入门学习——第13节: [6-1] TIM定时中断

写这个文章是用来学习的,记录一下我的学习过程。希望我能一直坚持下去,我只是一个小白,只是想好好学习,我知道这会很难,但我还是想去做! 本文写于:2025.04.04 STM32开发板学习——第13节: [6-1] TIM定时中断 前言开发板说明引用解答和科普一…

【2】搭建k8s集群系列(二进制)之安装etcd数据库集群

一、etcd服务架构 Etcd 是一个分布式键值存储系统,Kubernetes 使用 Etcd 进行数据存储,所以先 准备一个 Etcd 数据库,为解决 Etcd 单点故障,应采用集群方式部署,这里使用 3 台组建集群,可容忍 1 台机器故障…

Linux常用命令详解:从基础到进阶

目录 一、引言 二、文件处理相关命令 (一)grep指令 (二)zip/unzip指令 ​编辑 (三)tar指令 (四)find指令 三、系统管理相关命令 (一)shutdown指…

基于spring boot的外卖系统的设计与实现【如何写论文思路与真正写出论文】

目录 系统开发实现链接: 背景与分析: 背景(题目): 用户功能 配送员功能 管理员功能 分析: 过程(主体展示为主,部分功能不一一展示): 目录 论文前面…

Kubernetes 存储 Downward API

1.介绍 1.提供容器元数据 比如我们 golang语言 我们说他会根据当前CPU的数量 以此去确认我们的进程 线程 和协程之间的关系 以此去释放我们当前CPU的更大的 这么一个并行任务的能力 但是这里会出现一个问题 容器它是把当前的应用 封装在我们固定的名称空间了 而且给它以特定的…

01人工智能基础入门

一、AI应用场景和发展历程 1.1行业应用 1、deepdream图像生成、yolo目标检测 2、知识图谱、画风迁移 3、语音识别、计算机视觉 4、用户画像 5、百度人工智能布局 1.2发展历程 人工智能的发展经历了 3 个阶段: 1980年代是正式成形期,尚不具备影响力。 …

进程和内存管理

目录 一.进程的基本信息 1.1进程的定义 1.2进程的特征 1.3进程的组成 1.4线程产生的背景 1.5线程的定义 1.6进程与线程的区别 1.7进程的类别 1.8进程的优先级 1.8.1进程优先级的概念 1.8.2PRI和NI 1.9僵尸进程 1.9.1僵尸进程的定义 1.9.2僵尸进程产生的原因 1.9…

React 项目使用 pdf.js 及 Elasticpdf 教程

摘要:本文章介绍如何在 React 中使用 pdf.js 及基于 pdf.js 的批注开发包 Elasticpdf。简单 5 步可完成集成部署,包括数据的云端同步,示例代码完善且简单,文末有集成代码分享。 1. 工具库介绍与 Demo 1.1 代码包结构 ElasticP…

性能测试之jmeter的基本使用

简介 Jmeter是Apache的开源项目,基于Java开发,主要用于进行压力测试。 优点:开源免费、支持多协议、轻量级、功能强大 官网:https://jmeter.apache.org/index.html 安装 安装步骤: 下载:进入jmeter的…

CAD插件实现:所有文字显示到列表、缩放、编辑——CAD-c#二次开发

当图中有大量文字,需要全部显示到一个列表时并缩放到需要的文字时,可采用插件实现,效果如下: 附部分代码如下: private void BtnSelectText_Click(object sender, EventArgs e){var doc Application.DocumentManager.…

Oracle数据库数据编程SQL<8 文本编辑器Notepad++和UltraEdit(UE)对比>

首先,用户界面方面。Notepad是开源的,界面看起来比较简洁,可能更适合喜欢轻量级工具的用户。而UltraEdit作为商业软件,界面可能更现代化,功能布局更复杂一些。不过,UltraEdit支持更多的主题和自定义选项&am…

Linux驱动开发练习案例

1 开发目标 1.1 架构图 操作系统:基于Linux5.10.10源码和STM32MP157开发板,完成tf-a(FSBL)、u-boot(SSBL)、uImage、dtbs的裁剪; 驱动层:为每个外设配置DTS并且单独封装外设驱动模块。其中电压ADC测试,采用linux内核…

Apache httpclient okhttp(1)

学习链接 Apache httpclient & okhttp(1) Apache httpclient & okhttp(2) httpcomponents-client github apache httpclient文档 apache httpclient文档详细使用 log4j日志官方文档 【Java基础】- HttpURLConnection…

微信小程序—路由

关于 app.json 中的配置 app.json 主要是对整个小程序进行一个全局的配置。 pages:在这个配置项目中,就可以配置小程序里面的页面,小程序默认显示 pages 数组中的第一个页面windows:主要配置和导航栏相关的 当然,在…

人工智能驱动的数据仓库优化:现状、挑战与未来趋势

1. 引言:数据仓库的演进与人工智能驱动优化的兴起 现代数据仓库的复杂性和规模正以前所未有的速度增长,这主要是由于数据量、种类和产生速度的急剧增加所致。传统的数据仓库技术在应对这些现代数据需求方面显得力不从心,这催生了对更先进解决…