机器学习第六十周周报 NLA-GNN

news2024/11/27 8:45:38

week 60 NLA-GNN

摘要

本周阅读了题为NLA-GNN: Non-local information aggregated graph neural network for heterogeneous graph embedding的论文。该文提出了一种新的框架——非局部信息聚合图神经网络(NLA-GNN),旨在更有效地探索异构图。该框架结合了本地和非本地的节点属性聚合机制,其中本地层聚焦于邻近节点,而非本地层则通过注意力机制选取重要远程节点的信息。实验表明NLA-GNN表现出色,并且非本地层对于性能提升至关重要。此方法利用全局注意机制和一维卷积来捕捉远距离节点间的依赖关系,但大规模应用时内存消耗较大,未来工作将考虑分布式聚合以适应更大规模的数据集。

Abstract

This week’s weekly newspaper decodes the paper entitled NLA-GNN: Non-local information aggregated graph neural network for heterogeneous graph embedding. The paper introduces a novel framework, the Non-Local Information Aggregation Graph Neural Network (NLA-GNN), aimed at exploring heterogeneous graphs more effectively. This framework integrates both local and non-local node attribute aggregation mechanisms, with the local layer focusing on nearby nodes, and the non-local layer selecting information from significant distant nodes through an attention mechanism. Experiments show that the NLA-GNN performs excellently, and the non-local layer is crucial for performance enhancement. The method leverages global attention mechanisms and 1D convolutions to capture dependencies between distant nodes. However, when applied on a large scale, it requires substantial memory for global attention extraction, posing a challenge for deployment on smaller machines. Future work will consider distributed aggregation to accommodate larger datasets.

一、文献阅读

1. 题目

标题:NLA-GNN: Non-local information aggregated graph neural network for heterogeneous graph embedding

作者:Siheng Wang, Guitao Cao, Wenming Cao, Yan Li

发布:pattern recognition二区

链接:https://doi.org/10.1016/j.patcog.2024.110940

2. Abstract

本文提出了一种新的非局部信息聚合图神经网络(NLA-GNN),它不仅可以聚合来自邻近节点的局部信息,还可以聚合来自远距离节点的非局部信息。具体来说,NLA-GNN中的局部聚合模块利用注意机制生成潜在有价值的元路径,并使用它们来聚合局部信息。非局部聚合模块采用两步方法,每一步都采用注意力引导的方法将节点排序到节点序列中,并使用为序列数据设计的方法进行信息聚合。在三个异构图数据集上的实验结果表明,NLA-GNN的性能超越了最先进的技术,并且证明了在异构图中进行非局部聚合的必要性。

3. 文献解读

3.1 Introduction

为了实现异构图中的非局部信息聚合,提出了一种新的非局部信息聚合图神经网络(NLA-GNN),该网络可以有效地聚合来自局部和非局部节点的信息。在保持模型层数较低的同时,实现了对远程节点依赖关系的有效捕获,从而有效地缓解了过度平滑问题。

NLA-GNN由本地聚合模块和非本地聚合模块组成。给定节点的属性和异构图的结构,使用局部聚合模块层来学习不同边缘类型的潜在有价值的组合。通过堆叠多个这样的层,本地聚合模块可以捕获有价值的元路径,从而启用本地聚合。此外,利用两步方法来启用非本地聚合。在每一步中,将节点排序到节点序列中。由于节点的排序是由注意机制引导的,节点序列中相邻的两个节点在原图结构中可能相距很远。然后对这些节点序列进行一维卷积,对序列中相邻节点的属性进行聚合。这也意味着原始图中彼此相距很远的节点的属性现在可以聚合了。

因此,模型可以从本地和非本地邻居端到端聚合有用的表示。在三个异构图数据集上的实验结果表明,NLA-GNN达到了最先进的性能。

3.2 创新点

该文的主要贡献有三个方面:

  1. 提出了一种新的框架,称为NLA-GNN,用于生成有意义的低维节点嵌入。方法同时考虑局部和非局部信息,而不是像其他方法那样只考虑异构图中的局部信息。因此,NLA-GNN可以有效地探索异构图,从局部和非局部节点中聚合信息。
  2. 提出了一种两步方法来实现异构图的非局部聚合:类型步和全局步。按类型步骤关注每个节点类型,而全局步骤关注异构图中的所有节点。这些步骤中的每一步都使用注意力引导方法将节点排序到节点序列中,并使用为顺序数据设计的方法聚合信息。
  3. 比较了NLA-GNN与不同基线方法,包括传统的图嵌入方法和图神经网络方法。在三个数据集上的实验表明,方法优于最先进的方法。

4. 网络结构

$$

$$

该文提出了一个新的框架NLA-GNN,它可以聚合来自本地邻居和远程节点的信息来生成异构图的嵌入。图2给出了NLA-GNN的整体框架。NLA-GNN由多层组成,每层包含两个聚合层:本地聚合层和非本地聚合层(NL-Layer)。具体来说,NLA-GNN利用基于注意力的方法来组成每个边类型的邻接矩阵,因此可以将异构图视为同质图,并使用图卷积网络(GCN)层与复合邻接矩阵实现局部聚合。在本地聚合层之后,非本地聚合层根据节点的类型将节点划分为𝐾𝑣类。它使用注意力引导排序来打乱每个类中节点的顺序(类型排序)。此外,非局部聚合层对图中的所有节点进行洗牌,而不管它们的类型(全局排序)。然后,排序后的节点形成多节点序列。nl层对每个序列使用一维卷积神经网络层进行信息聚合。由于排序过程是注意力引导的,并且与图结构无关,因此节点可以从非局部节点中聚合信息。在框架的最后,使用一个额外的本地聚合层将嵌入映射到指定的维度,然后可以用于下游任务。

4.1 复合邻接矩阵

异构图中存在多个邻接矩阵。每种类型的边 t i ∈ T e t_i\in \mathcal T^e tiTe对应一个邻接矩阵 A t i A_{t_i} Ati​。探索不同局部关系结构的直观思路是计算具有归一化系数的多个邻接矩阵的线性组合。也就是说,
A ( l ) = ∑ t i ∈ T e α t i ( l ) A t i A^{(l)}=\sum_{t_i\in \mathcal T^e}\alpha^{(l)}_{t_i}A_{t_i} A(l)=tiTeαti(l)Ati
学习了𝐿层的复合邻接矩阵后,将每层的复合邻接矩阵相乘即可得到长度为𝐿元路径的邻接矩阵。也就是说,
A p = A ( 1 ) A ( 2 ) … A ( L ) A_p=A^{(1)}A^{(2)}\dots A^{(L)} Ap=A(1)A(2)A(L)
A P A_P AP为基于元路径的图 G P \mathcal G^P GP邻接矩阵。注意,矩阵 A P A_P AP包含多个潜在的元路径。由于复合邻接矩阵 A ( l ) A^{(l)} A(l)的每一层都是由多个不同边型的邻接矩阵 A t i A_{t_i} Ati构成的,所以每一层的几个边型即构成元路径。通过多层相乘,多个不同权值的元路径形成矩阵 A P A_P AP

然而,使用Eq.(2)生成复合邻接矩阵有一个缺点。因为 A P A_P AP中每个元路径的长度都是L,所以 A P A_P AP无法捕获短元路径。为了解决这个问题,在邻接矩阵合成过程中引入单位矩阵 A t ∈ R N × N A_t\in R^{N\times N} AtRN×N。因此,该模型既可以从原始邻接矩阵合成矩阵,也可以从自连接矩阵合成矩阵。自连接不会增加元路径的长度。因此,可以将Eq.(2)修改为:
A ( l ) = ∑ t i ∈ T e α t i ( l ) A t i + α I ( l ) A I = ∑ t i ∈ { T e , I } α t i ( l ) A t i A^{(l)}=\sum_{t_i\in\mathcal T^e}\alpha^{(l)}_{t_i}A_{t_i}+\alpha^{(l)}_IA_I=\sum_{t_i\in\{\mathcal T^e,I\}}\alpha^{(l)}_{t_i}A_{t_i} A(l)=tiTeαti(l)Ati+αI(l)AI=ti{Te,I}αti(l)Ati
可以将Eq.(4)中的系数用softmax修改为:
a ( l ) = { exp ( s t i ( l ) t t i ( l ) ) / z ( l ) t i ∈ T e exp ( a l ) / z ( l ) t i = I z ( l ) = ∑ t i ∈ T e exp ( s t i ( l ) t t i ( l ) ) + exp ( α l ) a^{(l)}=\begin{cases} \text{exp}(s^{(l)}_{t_i}t^{(l)}_{t_i})/z^{(l)}\quad t_i\in\mathcal T^e\\ \text{exp}(a_l)/z^{(l)}\quad t_i=I \end{cases}\\ z^{(l)}=\sum_{t_i\in\mathcal T^e}\text{exp}(s^{(l)}_{t_i}t^{(l)}_{t_i})+\text{exp}(\alpha_l) a(l)={exp(sti(l)tti(l))/z(l)tiTeexp(al)/z(l)ti=Iz(l)=tiTeexp(sti(l)tti(l))+exp(αl)

s t i ( l ) = { s t i ( l ) l = 1 t t i ( l − 1 ) 2 ≤ l ≤ L s^{(l)}_{t_i}=\begin{cases} s^{(l)}_{t_i}\quad l=1 t^{(l-1)}_{t_i}\quad 2\leq l\leq L \end{cases} sti(l)={sti(l)l=1tti(l1)2lL

4.2 局部聚合

为了实现局部聚合,考虑使用GCN层和学习到的复合邻接矩阵对局部邻居进行信息聚合。也就是说,
H l o c a l ( l ) = f ( l ) ( H ( l − 1 ) , A ( l ) ) = σ ( A ( l ) H ( l − 1 ) W ( l ) ) H^{(l)}_{local}=f^{(l)}(H^{(l-1)},A^{(l)})=\sigma(A^{(l)}H^{(l-1)}W^{(l)}) Hlocal(l)=f(l)(H(l1),A(l))=σ(A(l)H(l1)W(l))
图3是局部聚合层的图示。首先,使用注意机制从不同类型的边学习一个复合邻接矩阵。然后,通过卷积运算𝑓(𝑙)(⋅)对𝑙−1层的属性进行聚合。应用卷积运算𝑓(𝑙)(⋅)后,卷积图通过不同类型的边以自动学习到的不同权值对信息进行聚合。

4.3 非局部聚合

图中没有固定的节点顺序。实现非局部聚合的关键思想是利用注意机制对节点进行排序,排序后的节点可以看作是一个节点序列。如图4所示,为了处理节点序列,可以使用针对序列数据设计的传统方法。由于节点的排序是由注意机制引导的,节点序列中相邻的两个节点在原图结构中可能相距很远。经过一维卷积后,对序列中相邻节点的属性进行聚合。这也意味着原始图中彼此相距很远的节点的属性现在可以聚合了。

异构图的思想是以两种不同的方式对节点进行排序:类型排序和全局排序。在类型排序中,根据节点的类型对其进行分类,并对每个类分别使用注意引导排序。在全局排序中,对所有节点使用注意力引导排序。在注意引导排序之后,使用1D卷积神经网络对每个序列的属性进行聚合。

4.4 多频

需要注意的是,NLA-GNN框架中的可训练参数是随机初始化的,这可能导致算法陷入局部最优。利用算法中的多通道来提高NLA-GNN的性能。不同通道的节点属性表示为 { H ( 1 ) , H ( 2 ) , … H ( C ) } \{H^{(1)},H^{(2)},\dots H^{(C)}\} {H(1),H(2),H(C)}​,其中扮成为通道数。从NLA-GNN中学习到的最终属性由所有分布的平均值计算:
H ~ o u t = 1 C ∑ c = 1 C H o u t [ c ] \tilde H_{out}=\frac 1C\sum^{C}_{c=1}H^{[c]}_{out} H~out=C1c=1CHout[c]

4.5 NLA-GNN算法

如算法1所示,给定初始节点特征𝑿和每种类型 t 1 t_1 t1邻接矩阵 A t i A_{t_i} Ati,首先为每层𝑙计算一个复合邻接矩阵(𝑙),然后使用本地聚合模块(即Eq.(7))从最后一层 H ( l ) H^{(l)} H(l)计算 H l o c a l ( l ) H^{(l)}_{local} Hlocal(l)。然后使用非局部聚合模块计算 H ^ ( l ) \hat H^{(l)} H^(l)作为下一层的输入。叠加𝐿层后,从层𝐿的非线性聚合模块中得到 H ^ ( L ) \hat H^{(L)} H^(L))。为了降低 H ^ ( L ) \hat H^{(L)} H^(L)的维数,使用了一个额外的局部聚合层,并获得了可用于下游任务的最终嵌入 H o u t H_{out} Hout​。

5. 实验过程

5.1 参数设置

数据集:使用[2]中提供的三个异构图,大致情况如表二

  • DBLP。它是一个引文网络数据集,包含三种类型的节点(论文§、作者(a)和会议©)和四种类型的边(P- a、a -P、P-C、C-P)。DBLP的标签是作者的研究领域,包括数据挖掘、数据库、信息检索和机器学习。
  • ACM。ACM有三种类型的节点(Papers §、Authors (A)和Subjects (S))和四种类型的边(P-A、A-P、P-S、S-P)。它是一个引文网络数据集,以论文类别(数据挖掘、无线通信、数据库)为标签。
  • IMDB。它是关于电影和相关信息的网站的一个子集。它包含三种类型的节点:Movie (M)、Director (D)和Actor (A),以及四个作为边的关系:M-D、D-M、M-A、A-M。IMDB的标签是电影的类型,包括喜剧、动作和戏剧。

将NLA-GNN与传统的网络嵌入方法、针对同质图设计的基于图神经网络的方法和基于异构图神经网络的方法进行了比较,以评估方法的有效性。

基线

  1. 传统的网络嵌入方法:
    • DeepWalk:一种基于随机行走的方法,它可以从齐次图中生成嵌入。本文将所有的节点和边都看作一种类型,以便在异构图上执行齐次方法。
    • Metapath2Vec:一种基于元路径的异构图随机漫步方法。Metapath2Vec使用跳过图方法生成嵌入。
  2. 基于图神经网络的方法:
    • GCN:齐次图神经网络采用谱图卷积的局部一阶逼近来聚合邻近节点的表示。这里将所有的节点和边都视为一种类型,以便在异构图上执行GCN。
    • GAT:一种利用注意机制为不同邻居指定不同权值的同构图神经网络。这里忽略节点和边的类型,以便在异构图上实现GAT。
  3. 基于异构图神经网络的方法:
    • HAN:一种利用注意机制生成嵌入的异构图神经网络。HAN需要手动选择元路径。
    • MAGNN:一种考虑元路径中间节点并需要预定义元路径的异构图神经网络。
    • GTN:一种自动学习元路径的异构图神经网络。这里不需要预定义的元路径。

实现细节:将隐藏维度设置为64,并对所有模型使用相同的数据集。随机初始化参数,并以Adam为优化器。对于GCN、GAT、HAN、MAGNN和GTN,利用验证集来优化参数,并对IMDB使用预定义元路径MAM和MDM,对ACM使用预定义元路径PAP和PSP,对DBLP使用预定义元路径APA和APCPA。对于GAT和HAN,选择头数为8。在提出的NLA-GNN中,信道数设置为2,其中IMDB和DBLP为3层(包括附加的本地聚合层),ACM为2层。权重衰减设为0.001,学习率设为0.005。

5.2 实验结果

将该方法与几种异构图神经网络模型,以及几种具有代表性的传统网络嵌入模型和同质图模型进行了比较。同构图模型在应用于异构图数据时表现出较低的性能。因此,只选取两个典型的同构图模型来展示实验结果。节点分类定量实验结果如表3所示。在表中,将微观f1表示为Mi-F1,宏观f1表示为Ma-F1。对每个数据集进行了20次实验运行,随后计算结果的平均值和标准差。统计显著性分析采用Welch’s t检验。

  • 传统的网络嵌入方法在大多数数据集上的性能不如神经网络方法,这可能是由于在使用模型处理复杂的异构图数据时,只考虑了图的结构信息,而忽略了节点属性信息。
  • 同构图神经网络(GCN, GAT)比传统的嵌入方法更好,可能是因为图神经网络可以更有效地探索图的结构。然而,它们是为同构图设计的,因此在异构图上的表现不如在同构图上的表现。
  • 异构图神经网络可以捕获复杂的异构结构,获得有意义的嵌入,在节点分类任务中表现优于其他方法。此外,方法NLA-GNN优于以往的最先进的技术,性能的提高主要来自两个方面。首先,使用注意机制来生成潜在的有价值的元路径,而不需要预定义的元路径,这些元路径可能不是最好的。此外,使用非本地层来聚合来自远程节点的节点属性,这可能对目标节点很重要。综上所述,非局部聚合层可以显著提高模型的性能,而单位矩阵对于局部聚合层也非常重要。

在训练率分别为10%、20%、40%、60%和80%的情况下继续实验,结果如下表表4所示。可以看出,随着训练集百分比的增加,模型的分类准确率呈增加趋势。

6. 结论

在本文中,我们提出了一个新的框架,称为非局部信息聚合图神经网络(NLA-GNN),可以更有效地探索异构图。具体来说,NLA-GNN由本地聚合层和非本地聚合层组成。局部聚合层从本地邻居中聚合节点属性,非局部聚合层利用注意力引导排序,从有价值的远程节点中聚合节点属性。因此有效地挖掘了局部和非局部信息。我们比较了NLA-GNN与不同的方法,包括传统的网络嵌入方法和图神经网络方法。实验结果表明,NLA-GNN具有较好的性能。此外,我们的消融研究结果验证了非局部聚集层对于提高NLAGNN性能的必要性。综上所述,通过非局部聚合,我们提出的方法可以更有效地利用异构图的结构信息来生成节点嵌入。实验结果表明,本文讨论的全局注意机制和一维卷积有效地捕获了远程节点依赖关系。然而,直接在大规模数据集上部署这种方法需要大量的内存来进行全局注意力提取,这对在小型机器上部署提出了挑战。因此,未来的考虑可能涉及现有远程节点依赖关系的分布式聚合,以便为大规模数据集扩展模型。

参考文献

[1] :Siheng Wang, Guitao Cao, Wenming Cao, Yan Li. NLA-GNN: Non-local information aggregated graph neural network for heterogeneous graph embedding .[J] Pattern Recognition DOI:10.1016/j.patcog.2024.110940

[2] Dongyue Chen , Ruonan Liu , Qinghua Hu, and Steven X. Ding. Interaction-Aware Graph Neural Networks for Fault Diagnosis of Complex Industrial Processes. [J] IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, VOL. 34, NO. 9, SEPTEMBER 2023 DOI:10.1109/TNNLS.2021.3132376

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2207015.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Iceberg 基本操作和快速入门二-Spark DDL操作

Iceberg 基本操作和快速入门一-CSDN博客 启动spark会话 docker exec -it spark-iceberg spark-sql 创建表 CREATE TABLE prod.db.sample ( id bigint NOT NULL COMMENT unique id, data string) USING iceberg; 创建分区表 CREATE TABLE prod.db.sample_par ( id bigint, …

windows server 2019中安装.net framework 3.5功能出错

转自金蝶云社区|财务金融企业信息化|IT精英人脉圈子-金蝶云社区官网 [故障现象] Windows server 2019系统安装net framework3.5时默认情况下会出现报错,提示错误:error 0x800F0954。 问题说明: 根据网上资料尝试了几种方式都不行: (1)离线下载net framework3.5进行安装(不…

【测试用例设计】一个登录界面的测试用例设计

文章目录 1. 登录页面的测试用例设计 1. 登录页面的测试用例设计

【CSS in Depth 2 精译_047】7.2 CSS 响应式设计中的媒体查询原则(上):深入理解媒体查询的类型

当前内容所在位置(可进入专栏查看其他译好的章节内容) 【第七章 响应式设计】(概述) 7.1 移动端优先设计原则(上篇) 7.1.1 创建移动端菜单(下篇)7.1.2 给视口添加 meta 标签&#xf…

3D渲图软件推荐:打造高质量渲染效果

在现代设计领域,3D渲图已经成为展示设计方案和产品外观的重要手段。无论是建筑设计、产品设计还是影视动画,都需要借助专业的3D渲染图软件来实现逼真的视觉效果。 本文将为您介绍几款备受好评的3D渲染图软件,帮助您在项目中选择合适的工具。…

每日学学Java开发规范,集合处理(附阿里巴巴Java开发手册(终极版))

前言 每次去不同的公司,码不同的代码,适应不同的规范,经常被老大教育规范问题,我都有点走火入魔的感觉,还是要去看看阿里巴巴Java开发规范,从中熟悉一下,纠正自己,码出高效&#xf…

KubeSphere v4 开源并发布全新可插拔架构 LuBan

2024 年 10 月 10 日,KubeSphere 开源社区激动地向大家宣布,KubeSphere v4(开源版)已正式发布,同时发布全新可插拔架构 KubeSphere LuBan。 相较于 KubeSphere 之前所有的版本,KubeSphere v4 可以说是有了…

springboot将logback替换成log4j2

一 为何要替换成log4j2 1.1 log4j2的优点 log4j2使用了两种方式记录日志:AsyncAppender和AsyncLogger。 1.AsyncAppender使用队列异步记录日志,但是一旦队列已满,appender线程需要等待。2.AsyncLogger是采用Disruptor,通过环形…

携程差旅智核系统 | OPENAIGC开发者大赛高校组优秀作品

在第二届拯救者杯OPENAIGC开发者大赛中,涌现出一批技术突出、创意卓越的作品。为了让这些优秀项目被更多人看到,我们特意开设了优秀作品报道专栏,旨在展示其独特之处和开发者的精彩故事。 无论您是技术专家还是爱好者,希望能带给…

【算法】DFS系列之 记忆化搜索

【ps】本篇有 5 道 leetcode OJ。 目录 一、算法简介 二、相关例题 1)斐波那契数 .1- 题目解析 .2- 代码编写 2)不同路径 .1- 题目解析 .2- 代码编写 3)最长递增子序列 .1- 题目解析 .2- 代码编写 4)猜数字大小 II …

Linux云计算 |【第四阶段】RDBMS2-DAY5

主要内容: PXC概述、部署PXC(自动故障恢复测试)、存储引擎、读锁/写锁、表锁/行锁、常用的存储引擎介绍 一、PXC概述 PXC(Percona XtraDB Cluster,简称PXC集群),是基于Galera的MySQL高可用集群…

OpenCV 之 实现基于Lucas-Kanade算法的光流追踪

引言 在计算机视觉中,光流是指物体、场景或摄像机之间的相对运动造成的像素变化。光流估计是计算机视觉中的一个基础课题,广泛应用于许多领域,比如自动驾驶汽车、机器人导航、手势识别等。OpenCV是一个开源的计算机视觉库,提供了…

vue使用gdal-async获取tif文件的缩略图

vue使用gdal-async获取tif文件的缩略图 npm i gdal-asyncgdal-async 在Vue组件中使用gdal-async获取缩略图&#xff1a; <template><div><img v-if"thumbnail" :src"thumbnail" alt"Thumbnail" /></div> </templa…

友思特方案 | FantoVision边缘计算:嵌入式视觉系统如何实现“更快 更高 更强”?

导读 便于集成的嵌入式视觉系统一直以来面临着带宽、内存、算力三个方面的挑战。友思特 FantoVision 边缘计算设备拥有更快的处理速度和更高的带宽选择&#xff0c;其开放式架构有效突破了上述三重阻碍。 嵌入式视觉 嵌入式视觉是传统机器视觉衍生出来的子集&#xff0c;嵌入…

STM32移植RT-Thread实现PWM波的输出

在进行PWM波的学习中&#xff0c;依然是踩了小坑&#xff0c;网络上大部分配置都增加了TIM的配置&#xff0c;貌似是不需要的&#xff0c;当开启了TIM的时钟反而影响了PWM的时钟&#xff0c;暂且归咎于版本不一样&#xff1f;还是STM32F1和STM32F4不一样呢&#xff1f;核心问题…

【黑马点评优化】之使用Caffeine+Redis实现应用级二层缓存

【黑马点评优化】之使用CaffeineRedis实现应用级二层缓存 1 缓存雪崩定义及解决方案2 为什么要使用多级缓存3 RedisCaffeine实现应用层二级缓存原理4 利用CaffeineRedis解决Redis突然宕机导致的缓存雪崩问题4.1 pom.xml文件引入相关依赖4.2 本地缓存配置类4.3 修改ShopServiceI…

Blazor Web APP学习记录

目录 1 呈现模式1.1 静态SSR1.2 服务器端交互SSR1.3 客户端交互CSR1.4 自动交互式1.5 注意 2 Blazor Web APP项目3 会话状态 1 呈现模式 参见&#xff1a;https://learn.microsoft.com/zh-cn/aspnet/core/blazor/components/render-modes?viewaspnetcore-8.0 Blazor Web App …

torch-npu的配置

1、简单的调用npu import torch import torch_npu x torch.randn(10000, 10000).npu() y torch.randn(10000, 10000).npu() for _ in range(10000):z x.mm(y) 这个代码的出现就会导致&#xff0c;核心使用99%&#xff0c;显存| 1633 2、安装torch-npu 安装方法看官网介绍…

npm使用时报错:Could not retrieve https://npm.taobao.org/mirrors/node/index.json.

在使用npm时报错&#xff0c;报错信息如下&#xff1a; 报错的原因&#xff1a;是原来的淘宝镜像地址过期了 解决办法&#xff1a;修改镜像地址。打开nvm的安装地址 -->settings.txt文件 -->配置下载源 1、将settings.txt文件中的 node_mirror: https://npm.taobao.or…

机器学习可解释性

机器学习的稳健性、可解释性和结果正确性等是人工智能安全可信应用必须解决的关键问题。 传统机器学习&#xff1a; 内置可解释性&#xff1a;决策树IF-Then规则&#xff0c;直观可理解事后可解释性&#xff1a;训练结束后的可解释技术特定于模型体系结构的解释与解释方法及模…