[论文精读]Polarized message-passing in graph neural networks

news2024/12/26 21:24:36

论文网址:Polarized message-passing in graph neural networks - ScienceDirect

论文代码:he-tiantian/PMP-GNNs:极化消息传递图神经网络的 Pytorch 实现,发表在 Artificial Intelligence,2024 年。 (github.com)

英文是纯手打的!论文原文的summarizing and paraphrasing。可能会出现难以避免的拼写错误和语法错误,若有发现欢迎评论指正!文章偏向于笔记,谨慎食用

目录

1. 省流版

1.1. 心得

2. 论文逐段精读

2.1. Abstract

2.2. Introduction

2.3. The polarized message-passing paradigm

2.3.1. Notations

2.3.2. Formulating polarized message-passing at a single layer

2.3.3. Expressiveness of polarized message-passing

2.4. Polarized message-passing graph neural networks

2.4.1. Polarized message-passing graph convolutional network

2.4.2. Polarized message-passing graph attention network

2.4.3. Polarized message-passing graph PageRank network

2.4.4. Loss function

2.4.5. Computational complexity of PMP-GNNs

2.4.6. Expressiveness of PMP-GNNs

2.5. Theoretical analysis

2.5.1. Proof of Theorem 1

2.5.2. Prood of Theorem 2

2.6. Related work

2.6.1. Graph neural networks

2.6.2. Message-passing graph neural networks

2.7. Experimental setup

2.7.1. Comparison baselines

2.7.2. Datasets and real-world analytical tasks

2.7.3. Experimental settings

2.8. Results and analysis

2.8.1. Classification performance on scientific articles

2.8.2. Clustering performance on blogs and text-based images

2.8.3. Analytical performance in coauthor graphs

2.8.4. Performance in rich-text classification

2.8.5. Comparisons of similarity-, dissimilarity-, and PMP-based GNNs

2.8.6. Comparisons of learned message weights

2.9. Conclusion

3. Reference


1. 省流版

1.1. 心得

(1)好多数学证明,看起来挺严谨的样子。为什么这样的东西只值二区,我感觉挺好的。可能是创新不是特别大?但是实验属于是多麻了

2. 论文逐段精读

2.1. Abstract

        ①They proposed Polarized message-passing (PMP) to capture the similarity relationship between nodes

        ②Thus, three new GNNs were derived, PMP graph convolutional network (PMP-GCN), PMP graph attention network (PMP-GAT), and PMP graph PageRank network (PMP-GPN)

        ③They verified them on 12 real datasets based 5 tasks

2.2. Introduction

        ①Current message-passing graph neural networks (MPGNNs) consider the SIMILARITY more, thus the authors want to contain the DISSIMILARITY

        ②⭐They decomposed traditional adjacency matrix A to 2 matrices, the SIMILARITY matrix and the DISSIMILARITY matrix

        ③⭐They combine the two sim matrices to new sparse matrix, which is the normalized product of the two sim matrices(咦~感觉这样不能真正实现复合?反而揉在一起了,怎么体现极化呢

negate  vt.否定;否认;使无效;取消

2.3. The polarized message-passing paradigm

2.3.1. Notations

        ①Graph is represented as G=\{V,E,\mathbf{X}\}, where each graph contains N nodes and \left | E \right | edges

        ②\mathbf{X}\in\mathbb{R}^{N\times D} denotes the input node feature matrix, \mathbf{H}^{l} is the node feature matrix of the subsequent convolved, \mathbf{H}^{1}=\mathbf{X}

        ③each node belongs to a class of C

        ④\mathcal{N}_{i} denotes one-hop neighbor 

        ⑤\mathbf{A}\in\{0,1\}^{N\times N} denotes the adjacency matrix

        ⑥\mathbf{W}^{l} denotes the learnable weight matrix

        ⑦\mathbf{p}^{l} denotes the latent positions at the l-th layer

2.3.2. Formulating polarized message-passing at a single layer

        ①Node correlations matrix \mathbf{C}:

\begin{aligned}&\mathbf{H}=\mathbf{H}^{l}\mathbf{W}_{h}^{l},\mathbf{P}=\mathbf{P}^{l}\mathbf{W}_{p}^{l},\\&\mathbf{C}_{ij}=\mathbf{A}_{ij}\cdot[\mathbf{a}(\mathbf{H}_{i,:}||\mathbf{H}_{j,:})^{T}+\mathbf{P}_{i,:}diag(\mathbf{b})\mathbf{P}_{j,:}^{T}]\end{aligned}

where the subscript _{i, :} denotes the i-th row vector, || is the concatenation symbol, \mathbf{a} and \mathbf{b} are the learnable weight vectors. (C= A_{ij}*{[a,1]*[1,2f] + [N,p]*[p,p]*[p,N]},感觉上这里A是一个二值化数,难道这里会强行让f=1/2N吗)

        ②Node uncorrelated matrix \mathbf{S}:

\mathbf{S}_{ij}=\mathbf{A}_{ij}\cdot[\alpha|\mathbf{H}\mathbf{W}_{i,:}-(\mathbf{H}\mathbf{W})_{j,:}|^2+(1-\alpha)|\mathbf{P}_{i,:}-\mathbf{P}_{j,:}|^2]

where \alpha\in(0,1) is the learnable parameter

        ③Construction of integrated polarization information:

\begin{aligned} &\mathbf{E}_{ij}=\mathbf{A}_{ij}\cdot\exp(\mathbf{C}_{ij}-\beta\mathbf{S}_{ij}), \\ &\mathbf{M}_{i}=\sum_{j\in\mathcal{N}_{i}}\phi(\mathbf{E}_{ij})\cdot\mathbf{H}_{j,:}, \\ &\mathrm{FEATURE~UPDATE:} \mathbf{H}_{i,:}^{l+1}=\frac{\theta}{|\mathcal{N}_{i}|}\mathbf{H}_{i,:}+\mathbf{M}_{i}, \end{aligned}

where \phi \left ( \cdot \right ) is an appropriately function leveraging \mathbf{E} to generate the weights for computing messages from neighbors, \beta denotes learnable positive parameter, \theta denotes learnable positive irrational

        ④Polarized message-passing (PMP):

2.3.3. Expressiveness of polarized message-passing

        ①大概证明了一下为什么他们提出来的极化消息传递更好,如有需要可以参考原文

2.4. Polarized message-passing graph neural networks

2.4.1. Polarized message-passing graph convolutional network

        ①PMP-GCN:

\begin{aligned} &\mathbf{H}=\mathbf{H}^l\mathbf{W}_h^l,\mathbf{P}=\mathbf{P}^l\mathbf{W}_p^l,\mathbf{E}_{ij}=\mathbf{A}_{ij}\cdot\exp(\mathbf{C}_{ij}-\beta\mathbf{S}_{ij}), \\ &\mathbf{M}_{i}={\frac{1}{\sqrt{\sum_{k\in\mathcal{N}_{i}}\mathbf{E}_{ik}}}}\sum_{j\in\mathcal{N}_{i}}{\frac{\mathbf{E}_{ij}}{\sqrt{\sum_{k\in\mathcal{N}_{j}}\mathbf{E}_{jk}}}}\cdot\mathbf{H}_{j,:}, \\ &\mathbf{H}_{i,}^{l+1}={\frac{\theta}{|{\mathcal{N}}_{i}|}}\mathbf{H}_{i,:}+\mathbf{M}_{i}. \end{aligned}

2.4.2. Polarized message-passing graph attention network

        ①PMP-GAT:

\begin{aligned} &\mathbf{H}=\mathbf{H}^{l}\mathbf{W}_{h}^{l},\mathbf{P}=\mathbf{P}^{l}\mathbf{W}_{p}^{l},\mathbf{E}_{ij}=\mathbf{A}_{ij}\cdot\exp(\mathbf{C}_{ij}-\beta\mathbf{S}_{ij}), \\ &\mathbf{M}_{i}=\sum_{j\in\mathcal{N}_{i}}\frac{\mathbf{E}_{ij}}{\sum_{k\in\mathcal{N}_{i}}\mathbf{E}_{ik}}\cdot\mathbf{H}_{j,:}, \\ &\mathbf{H}_{i,}^{l+1}=\frac{\theta}{|\mathcal{N}_{i}|}\mathbf{H}_{i,:}+\mathbf{M}_{i}. \end{aligned}

2.4.3. Polarized message-passing graph PageRank network

        ①PMP-GPN:

\begin{aligned}&\mathbf{H}^{in}=MLP(\mathbf{X}),\mathbf{P}^{in}=MLP(\mathbf{P}^{0}),\mathbf{E}_{ij}=\mathbf{A}_{ij}\cdot\exp(\mathbf{C}_{ij}-\beta\mathbf{S}_{ij}),\\&\mathbf{M}_{i}=\frac{1}{\sqrt{\sum_{k\in\mathcal{N}_{i}}\mathbf{E}_{ik}}}\sum_{j\in\mathcal{N}_{i}}\frac{\mathbf{E}_{ij}}{\sqrt{\sum_{k\in\mathcal{N}_{j}}\mathbf{E}_{jk}}}\cdot\mathbf{H}_{j,,},\\&\mathbf{H}_{i,}^{l+1}=\frac{\theta}{|\mathcal{N}_{i}|}\mathbf{H}_{i,:}+(1-\alpha)\mathbf{M}_{i}+\alpha\mathbf{H}_{i,:}^{in},\end{aligned}

2.4.4. Loss function

        ①Loss function contains task-specific loss and latent-position loss:

L=L_{task}+tr(\mathbf{P}^{outT}\mathbf{LP}^{out})

where \mathbf{L} denotes the Laplacian matrix of \mathbf{A}

2.4.5. Computational complexity of PMP-GNNs

        ①Mapping computational complexity: O(2Ndd^{\prime})

        ②Computing \mathbf{C} and \mathbf{S}O(4|E|d^{\prime})

        ③Representation learning: O(|E|(1+d^{\prime}))

        ④Layer complexity of PMP-GCN and PMP-GAT: O(|E|(1+5d')+2Ndd')

        ⑤Layer complexity of PMP-GPN: O(|E|d)

2.4.6. Expressiveness of PMP-GNNs

        ①作者证明他们的PMP可以通过Weisfeiler-Lehman 检验,并且说所有MPGNN表达性的上限是WL

——————————————以下证明暂略——————————————

2.5. Theoretical analysis

2.5.1. Proof of Theorem 1

2.5.2. Prood of Theorem 2

(1)Schematic methodology to complete the proof of Theorem 2

(2)The equivalence between the PMP-GCN layer and the 1-WL test

(3)The equivalence between the PMP-GAT layer and the 1-WL test

(4)The equivalence between the PMP-GPN layer and the 1-WL test

2.6. Related work

2.6.1. Graph neural networks

        ①GNN can be used to scientific document classification, coauthor analysis, conversation generation, social community detection, and text classification

2.6.2. Message-passing graph neural networks

        ①List some strategies

2.7. Experimental setup

2.7.1. Comparison baselines

        ①Compared model: a) GNN: GCN, MoNer, GraphSAGE, ARMA; b) Attention based GNN: GAT, GATv2, HardGAT, MAGNA; c) Diffused (PageRank based) GNN: JKNet, APPNP, SGC, GPR

2.7.2. Datasets and real-world analytical tasks

        ①Introduced each dataset:

2.7.3. Experimental settings

        ①Specifically list the parameters in compared models

        ②Hidden layer: 35 for PMP-GCN, 64 for PMP-GAT and PMP-GPN

        ③Dropout rate: 0.75 for PMP-GCN, 0.6 for PMP-GAT, 0.5 for PMP-GPN

        ④Learning rate: 0.01 for PMP-GCN and PMP-GPN, 0.005 for PMP-GAT

        ⑤Attention head: only 1 for PMP-GAT

        ⑥Optimizer: Adam

        ⑦Epoch: 10

        ⑧Performance: average

        ⑨Introduced the distribution of train/val/test set

2.8. Results and analysis

2.8.1. Classification performance on scientific articles

        ①Comparison on traditional GNN:

        ②Comparison on attention based GNN:

        ③Comparison on PageRank based GNN:

2.8.2. Clustering performance on blogs and text-based images

        ①Comparison on traditional GNN:

        ②Comparison on attention based GNN:

        ③Comparison on PageRank based GNN:

2.8.3. Analytical performance in coauthor graphs

        ①Comparison on traditional GNN:

        ②Comparison on attention based GNN:

        ③Comparison on PageRank based GNN:

2.8.4. Performance in rich-text classification

        ①Comparison on traditional GNN:

        ②Comparison on attention based GNN:

        ③Comparison on PageRank based GNN:

2.8.5. Comparisons of similarity-, dissimilarity-, and PMP-based GNNs

        ①Ablation studies on 3 types of GNN:

2.8.6. Comparisons of learned message weights

        ①Learned message weights blation and accumulative distribution of normalized neighbor distances regarding node features and graph structure:

2.9. Conclusion

         ....怎么做了两三百个实验啊

3. Reference

He, T. et al. (2024) 'Polarized message-passing in graph neural networks', Artificial Intelligence, 331. doi: Redirecting

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2135927.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

红日靶场通关

初始准备 首先是网络配置,看教程来的,我配置完的效果如下 windows7:(内:192.168.52.143 / 外:192.168.154.136) windows2003:(内:192.168.52.141)windows2008:(内:192.…

运算放大器选型的关键参数

上图中的顺序是从左上到右下进行选型,小信号看带宽,大信号看压摆率。一般选用电压反馈型的运放,但是涉及到高频特性的时候也会选择电流反馈型的运放。精密运放选用失调电压比较小的运放,一般失调电压在1mv左右。低功耗的情况下需要…

极越造车2.0:01销量回暖,07杀出血路,ASD抢跑FSD

‍‍‍作者 |张马也 编辑 |德新 9月13日,极越公布其第二款车型极越07上市48小时内,订单超过5000台。 对这家造车4年多的车企来说,这意味着新车取得了初步的成功。 懂车帝的数据显示,7月极越01销量1143台,8月销量则翻…

Linux 入门:简单的基础操作

“批判他人总是想的太简单 剖析自己总是想的太困难” 文章目录 前言Linux 入门:从基础操作到 WSL2 安装文章有误敬请斧正 不胜感恩!1. 什么是 Linux?2. Linux 和其他系统有啥不同?3. Linux 的主要组成4. 常见 Linux 发行版5. 基本…

openstack之cinder介绍

概念 cinder 为虚拟机提供管理块存储服务。支持的文件系统:lvm、iscsi、nfs、san、RBD 组件构成及功能介绍 cinder api:在控制节点运行,管理服务的接口,被命令行、其他组件调用; cinder scheduler:类似n…

大数据新视界 --大数据大厂之Kafka消息队列实战:实现高吞吐量数据传输

💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的…

美国税收制度及SAP实施

1. 税制综述 美国是以直接税为主的国家,实行联邦、州和地方(市、县)三级征税制度,属于彻底的分税制国家。美国联邦税以个人所得税和企业所得税为其主要收入来源,州税以销售与使用税为其主要收入来源,地方税以财产税为…

UART 16550的使用

前言 本文从操作系统使用 16550 的角度来学习 16550。主要解析通用的串口寄存器的作用。 16550 串口由一系列寄存器控制串口行为。不同的具体设备寄存器的偏移不同,寄存器的长度可能不同。 例如,在 AXI UART 16550中,各寄存器长度都为 32 b…

overleaf如何下载论文的pdf

用overleaf写完英文论文后,要将论文保存为PDF格式 点击图片中的下载按钮 然后选择一个路径保存论文的PDF格式即可。

测试通用面试题大全

24年软件测试的发展如何? 1、IT行业还会继续升温,高质量人才需求相对还是短缺。 2、要求变高之后,很难再下降了,学历和经验。 3、功能测试之外的东西,接口、性能和自动化要掌握一点。 4、长远来看,软件…

Android Framework(五)WMS-窗口显示流程——窗口布局与计算

文章目录 relayoutWindow流程概览应用端处理——ViewRootImpl::setView -> relayoutWindowViewRootImpl::setViewViewRootImpl::performTraversalsViewRootImpl::relayoutWindow Surface的创建WindowManagerService::relayoutWindow了解容器类型和Buff类型的SurfaceBuff类型…

并发编程 - GCD的栅栏(dispatch_barrier_async)

引言 Grand Central Dispath(GCD)是苹果提供的强大工具,它几乎涵盖了多线程编程的所有方面。通过GCD,我们可以轻松地创建队列、管理线程,并以更优雅的方式处理并发任务。在前面的博客中,我们已经深入探讨了…

基于SpringBoot+Vue+MySQL的校园健康驿站管理系统

系统展示 用户前台界面 管理员后台界面 系统背景 本文设计并实现了一个基于SpringBoot后端、Vue前端与MySQL数据库的校园健康驿站管理系统。该系统旨在通过数字化手段,全面管理学生的健康信息,包括体温监测、疫苗接种记录、健康状况申报等,为…

【Canvas与表盘】绘制黄蓝两色简约表盘

【成图】 【代码】 <!DOCTYPE html> <html lang"utf-8"> <meta http-equiv"Content-Type" content"text/html; charsetutf-8"/> <head><title>黄蓝卡通手表</title><style type"text/css">…

【我的Android进阶之旅】解决CardView四个圆角有白边的问题

文章目录 一、问题描述二、分析CardView出现白边的原因三、如何解决这个问题?3.1 如何修复?3.2 为什么这样可以修复?3.3 示例代码3.4 总结一、问题描述 在实现一个RecycleView的Item时候,样式需要用到卡片式效果,于是想到用CardView来实现,但是最终发现运行出来的效果,…

(微服务项目)新闻头条——Day1

最近发生了很多事情&#xff0c;躺了一阵子&#xff0c;也是终于振作起来做自己的事情了.... 有的人追求精彩而活&#xff0c;而即使瘦若浮游&#xff0c;仍旧痴迷71种滋味&#xff0c;而有的人寿命明却装醉不得自由虚度自己的光阴&#xff0c;年华终究在最后一刻幡然醒悟&…

Android Studio新建工程(Java语言环境)

一、新建工程流程(java语言环境) 1、File->New->New Project 2、选择“Empty Views Activity” -> Next 3、创建项目名称/项目路径/语言环境 1&#xff09;项目名称&#xff1a;使用默认Name 或 修改Name 2) Package name&#xff1a;每个项目的这个名称唯一&…

MySQL 创建数据库和表全攻略

一、MySQL 创建数据库与表的重要性 MySQL 作为广泛应用的关系型数据库管理系统&#xff0c;创建数据库和表具有至关重要的意义。 在数据存储方面&#xff0c;数据库就如同一个巨大的仓库&#xff0c;为各类数据提供了安全、有序的存储环境。通过创建数据库&#xff0c;可以将相…

计算机毕业设计体育资讯个性化推荐网站网站内容留言评论前台注册后台管理/springboot/javaWEB/J2EE/MYSQL数据库/vue前后分离小程序

一、网站内容 ‌个性化推荐‌&#xff1a;根据用户浏览历史和兴趣&#xff0c;推送相关体育资讯。‌丰富资讯‌&#xff1a;包含体育赛事直播、新闻报道、专栏评论等。 二、留言评论系统 ‌用户互动‌&#xff1a;允许用户对资讯进行留言和评论&#xff0c;增强社区互动性。…

python基础知识 (五)--容器、索引、切片、字符串的遍历、查找、修改元素

目录 容器 容器大总结 索引 切片 字符串的遍历 for循环语法&#xff1a; while循环语法&#xff1a; 查找元素 修改元素 例题 1.验证码 2.抽取大红包 3.a和b互换位置 容器 在Python中&#xff0c;常见容器有&#xff1a; &#xff08;1&#xff09;字符串&#x…