矩阵范数介绍

news2024/11/14 19:22:26

这里写目录标题

    • 理论
      • 1 诱导范数 (induced norm)
      • 2 “元素形式”范数(“entrywise" norm)
      • 3 Schatten 范数
    • 论文中常用范数的书写

理论

参考张贤达矩阵分析page 34

矩阵范数主要有三种类型:诱导范数,元素形式范数和Schatten范数

1 诱导范数 (induced norm)

诱导范数又称 m × n m\times n m×n矩阵空间上的算子范数 (operator norm),定义为

(1.4.36)

∥ A ∥ = max ⁡ { ∥ A x ∥ : x ∈ K n , ∥ x ∥ = 1 } = max ⁡ { ∥ A x ∥ ∥ x ∥ : x ∈ K n , x ≠ 0 } \begin{aligned}\|A\|&=\max\{\|Ax\|:\boldsymbol{x}\in\mathbb{K}^n,\|\boldsymbol{x}\|=1\}\\&=\max\left\{\frac{\|Ax\|}{\|x\|}:x\in\mathbb{K}^n,x\neq0\right\}\end{aligned} A=max{Ax:xKn,x=1}=max{xAx:xKn,x=0}

(1.4.37)

常用的诱导范数为 p p p-范数

∥ A ∥ p = ⁡ d e f max ⁡ x ≠ 0 ∥ A x ∥ p ∥ x ∥ p \|A\|_p\overset{\mathrm{def}}{\operatorname*{=}}\max_{\boldsymbol{x}\neq0}\frac{\|\boldsymbol{A}\boldsymbol{x}\|_p}{\|\boldsymbol{x}\|_p} Ap=defx=0maxxpAxp

(1.4.38)

p p p范数也称 Minkowski p p p范数或者 L p L_p Lp范数。特别地, p = 1 , 2 , ∞ p=1,2,\infty p=1,2,时,对应的诱导范数分别为
∥ A ∥ 1 = max ⁡ 1 ⩽ j ⩽ n ∑ i = 1 m ∣ a i j ∣ ( 1.4.39 ) ∥ A ∥ s p e c = ∥ A ∥ 2 ( 1.4.40 ) ∥ A ∥ ∞ = max ⁡ 1 ⩽ i ⩽ m ∑ j = 1 n ∣ a i j ∣ ( 1.4.41 ) \begin{aligned} &\|A\|_1=\max_{1\leqslant j\leqslant n}\sum_{i=1}^m|a_{ij}|&& (1.4.39) \\ &\left\|A\right\|_{\mathrm{spec}}=\left\|A\right\|_2&& (1.4.40) \\ &\left\|\boldsymbol{A}\right\|_\infty=\max_{1\leqslant i\leqslant m}\sum_{j=1}^n\left|a_{ij}\right|&& (1.4.41) \end{aligned} A1=1jnmaxi=1maijAspec=A2A=1immaxj=1naij(1.4.39)(1.4.40)(1.4.41)
也就是说,诱导 L 1 L_{1} L1 L ∞ L_\infty L范数分别直接是该矩阵的各列元素绝对值之和的最大值 (最大
绝对列和)及最大绝对行和;而诱导 L 2 L_{2} L2范数则是矩阵 A \boldsymbol{A} A的最大奇异值。
诱导 L 1 L_1 L1范数 ∥ A ∥ 1 \|\boldsymbol{A}\|_1 A1和诱导 L ∞ L_\infty L范数 ∥ A ∥ ∞ \|\boldsymbol{A}\|_\infty A也分别称为绝对列和范数 (column-sum norm) 及绝对行和范数 (row-sum norm)。诱导 L 2 L_2 L2范数习惯称为谱范数 (spectrum norm)。

2 “元素形式”范数(“entrywise" norm)

m × n m\times n m×n矩阵先按照列堆栈的形式,排列成一个 m n × 1 mn\times1 mn×1向量,然后采用向量的范数定义,即得到矩阵的范数。由于这类范数是使用矩阵的元素表示的,故称为元素形式范数。元素形式范数是下面的 p p p矩阵范数

∥ A ∥ p = d e f ( ∑ i = 1 m ∑ j = 1 n ∣ a i j ∣ p ) 1 / p \left\|A\right\|_p\overset{\mathrm{def}}{=}\left(\sum_{i=1}^m\sum_{j=1}^n|a_{ij}|^p\right)^{1/p} Ap=def(i=1mj=1naijp)1/p

(1.4.42)

以下是三种典型的元素形式 p p p范数:
(1) L 1 L_{1} L1范数 (和范数) ( p = 1 ) (p=1) (p=1)

(1.4.43)

∥ A ∥ 1 = d e f ∑ i = 1 m ∑ j = 1 n ∣ a i j ∣ \|A\|_1\stackrel{\mathrm{def}}{=}\sum_{i=1}^m\sum_{j=1}^n|a_{ij}| A1=defi=1mj=1naij

(2) Frobenius 范数( p = 2 ) p=2) p=2)

∥ A ∥ F = d e f ( ∑ i = 1 m ∑ j = 1 n ∣ a i j ∣ 2 ) 1 / 2 \|A\|_\mathrm{F}\stackrel{\mathrm{def}}{=}\left(\sum_{i=1}^m\sum_{j=1}^n|a_{ij}|^2\right)^{1/2} AF=def(i=1mj=1naij2)1/2

(1.4.44)

(3)最大范数 (max norm)即 p = ∞ p=\infty p= p p p范数,定义为

(1.4.45)

∥ A ∥ ∞ = max ⁡ i = 1 , ⋯   , m ; j = 1 , ⋯   , n { ∣ a i j ∣ } \left\|A\right\|_\infty=\max_{i=1,\cdots,m;j=1,\cdots,n}\{\left|a_{ij}\right|\} A=i=1,,m;j=1,,nmax{aij}

Frobenius 范数可以视为向量的 Euclideani 范数对按照矩阵各列依次排列的“拉长向量” x = [ a 11 , ⋯   , a m 1 , a 12 , ⋯   , a m 2 , ⋯   , a 1 n , ⋯   , a m n ] T x=[a_{11},\cdots,a_{m1},a_{12},\cdots,a_{m2},\cdots,a_{1n},\cdots,a_{mn}]^{\mathrm{T}} x=[a11,,am1,a12,,am2,,a1n,,amn]T的推广。矩阵的 Frobenius 范数有时也称 Euclidean 范数、Schur 范数、Hilbert-Schmidt 范数或者 L 2 L_{2} L2范数。
Frobenius 范数又可写作迹函数的形式

∥ A ∥ F = d e f ⟨ A , A ⟩ 1 / 2 = t r ( A H A ) \left\|\boldsymbol{A}\right\|_\mathrm{F}\stackrel{\mathrm{def}}{=}\left\langle\boldsymbol{A},\boldsymbol{A}\right\rangle^{1/2}=\sqrt{\mathrm{tr}\left(\boldsymbol{A}^\mathrm{H}\boldsymbol{A}\right)} AF=defA,A1/2=tr(AHA)

(1.4.46)

由正定的矩阵 Ω \Omega Ω进行加权的 Frobenius 范数

∥ A ∥ Ω = tr ⁡ ( A H Ω A ) \left\|\boldsymbol{A}\right\|_\Omega=\sqrt{\operatorname{tr}(\boldsymbol{A}^\mathrm{H}\boldsymbol{\Omega}\boldsymbol{A})} AΩ=tr(AHΩA)

(1.4.47)
称为Mahalanobis范数

3 Schatten 范数

Schatten 范数就是用矩阵的奇异值定义的范数,将在第 5 章 (奇异值分析) 中介绍。注意,向量 x x x L p L_p Lp范数 ∥ x ∥ p \|x\|_p xp相当于该向量的长度。当矩阵 A A A作用于长度为 ∥ x ∥ p \|x\|_p xp
的向量 x x x时,得到线性变换结果为向量 A x Ax Ax,其长度为 ∥ A x ∥ p \|Ax\|_p Axp。线性变换矩阵 A A A可视为一线性放大器算子。因此,比率 ∥ A x ∥ p / ∥ x ∥ p \|\boldsymbol{A}x\|_p/\|x\|_p Axp/∥xp提供了线性变换 A x Ax Ax相对于 x x x的放大倍数, 而矩阵 A \boldsymbol{A} A p p p范数 ∥ A ∥ p \|\boldsymbol{A}\|_p Ap是由 A \boldsymbol{A} A产生的最大放大倍数。类似地,放大器算子 A \boldsymbol{A} A的最小放大倍数由

min ⁡ ∣ A ∣ p = ⁡ d e f min ⁡ x ≠ 0 ∥ A x ∥ p ∥ x ∥ p \min|\boldsymbol{A}|_p\overset{\mathrm{def}}{\operatorname*{=}}\min_{\boldsymbol{x}\neq\boldsymbol{0}}\frac{\|\boldsymbol{A}\boldsymbol{x}\|_p}{\|\boldsymbol{x}\|_p} minAp=defx=0minxpAxp

(1.4.48)

给出。比率 ∥ A ∥ p / min ⁡ ∣ A ∣ p ′ \|\boldsymbol{A}\|_p/\min|\boldsymbol{A}|_p^{\prime} Ap/minAp描述放大器算子 A A A的“动态范围”。
A , B A,B A,B m × n m\times n m×n矩阵,则矩阵的范数具有以下性质

(1.4.49)

(1.4.50)

(1.4.51)

∥ A + B ∥ + ∥ A − B ∥ = 2 ( ∥ A ∥ 2 + ∥ B ∥ 2 ) \|A+B\|+\|A-B\|=2(\|A\|^2+\|B\|^2) A+B+AB=2(A2+B2)
∥ A + B ∥ ⋅ ∥ A − B ∥ ⩽ ∥ A ∥ 2 + ∥ B ∥ 2 \|A+B\|\cdot\|A-B\|\leqslant\|A\|^2+\|B\|^2 A+BABA2+B2
以下是矩阵的内积与范数之间的关系 [ 238 ] ^{[238]} [238]
(1) Cauchy-Schwartz 不等式
∣ ⟨ A , B ⟩ ∣ 2 ⩽ ∥ A ∥ 2 ∥ B ∥ 2 \left|\langle A,B\rangle\right|^2\leqslant\|A\|^2\|B\|^2 A,B2A2B2
等号成立,当且仅当 A = c B \boldsymbol A=c\boldsymbol B A=cB,其中, c c c是某个复常数。
(2) Pathagoras 定理: ⟨ A , B ⟩ = 0 \langle \boldsymbol{A}, \boldsymbol{B}\rangle = 0 A,B=0 ⇒ \Rightarrow ∥ A + B ∥ 2 = ∥ A ∥ 2 + ∥ B ∥ 2 \| \boldsymbol{A}+ \boldsymbol{B}\| ^2= \| \boldsymbol{A}\| ^2+ \| \boldsymbol{B}\| ^2 A+B2=A2+B2
(3)极化恒等式
R e ( ⟨ A , B ⟩ ) = 1 4 ( ∥ A + B ∥ 2 − ∥ A − B ∥ 2 ) R e ( ⟨ A , B ⟩ ) = 1 2 ( ∥ A + B ∥ 2 − ∥ A ∥ 2 − ∥ B ∥ 2 ) \begin{aligned}&\mathrm{Re}\left(\langle\boldsymbol{A},\boldsymbol{B}\rangle\right)=\frac14\left(\|\boldsymbol{A}+\boldsymbol{B}\|^2-\|\boldsymbol{A}-\boldsymbol{B}\|^2\right)\\&\mathrm{Re}\left(\langle\boldsymbol{A},\boldsymbol{B}\rangle\right)=\frac12\left(\|\boldsymbol{A}+\boldsymbol{B}\|^2-\|\boldsymbol{A}\|^2-\|\boldsymbol{B}\|^2\right)\end{aligned} Re(A,B)=41(A+B2AB2)Re(A,B)=21(A+B2A2B2)
式中 Re ( ⟨ A , B ⟩ ) (\langle\boldsymbol{A},\boldsymbol{B}\rangle) (⟨A,B⟩)表示 A H B A^\mathrm{H}\boldsymbol{B} AHB的实部。

(1.4.52)

(1.4.53)

论文中常用范数的书写

∣ ⋅ ∣ |\cdot| ,denote the absolute value of a complex scalar
∥ ⋅ ∥ \|\cdot\| ,denote the Euclidean norm of a vector,
∥ ⋅ ∥ ∗ \|\cdot\|_* , denote the the nuclear norm of a matrix,
∥ ⋅ ∥ 2 \|\cdot\|_2 2 denote the spectral norm of a matrix.

  1. 欧几里得范数 Euclidean norm ∥ ⋅ ∥ \|\cdot\| 又称Frobenius范数,Schur范数,Hilbert-Schmidt范数或者 L 2 L_2 L2范数:
    欧几里得范数 对于向量 v = [ v 1 , v 2 , … , v n ] ⊤ \mathbf{v} = [v_1, v_2, \dots, v_n]^\top v=[v1,v2,,vn],它表示向量的长度或大小,定义为所有元素平方和的平方根:

    欧几里得范数 ∥ ⋅ ∥ \|\cdot\| 是用于向量的 2-范数。对于向量 v = [ v 1 , v 2 , … , v n ] ⊤ \mathbf{v} = [v_1, v_2, \dots, v_n]^\top v=[v1,v2,,vn],定义为:
    ∥ v ∥ = ∑ i = 1 n ∣ v i ∣ 2 \|\mathbf{v}\| = \sqrt{\sum_{i=1}^n |v_i|^2} v=i=1nvi2
    它表示向量在空间中的长度或大小。

同理引申到矩阵。

∥ A ∥ = ∥ A ∥ F = d e f ( ∑ i = 1 m ∑ j = 1 n ∣ a i j ∣ 2 ) 1 / 2 \|A\| = \|A\|_\mathrm{F}\stackrel{\mathrm{def}}{=}\left(\sum_{i=1}^m\sum_{j=1}^n|a_{ij}|^2\right)^{1/2} A=AF=def(i=1mj=1naij2)1/2

  1. 核范数 nuclear norm ∥ ⋅ ∥ ∗ \|\cdot\|_*
    核范数是矩阵奇异值的和,也被称为“迹范数”。对于矩阵 A \mathbf{A} A,核范数通过将矩阵的奇异值相加得到,常用于低秩矩阵逼近问题:

    核范数 ∥ ⋅ ∥ ∗ \|\cdot\|_* 是矩阵奇异值的和,常用于低秩矩阵问题。对于矩阵 A \mathbf{A} A,定义为:
    ∥ A ∥ ∗ = ∑ i σ i \|\mathbf{A}\|_* = \sum_{i} \sigma_i A=iσi
    其中 σ i \sigma_i σi 是矩阵 A \mathbf{A} A 的奇异值。

贴上一些关于核范数的拓展介绍。
在这里插入图片描述

  1. 谱范数 spectral norm ∥ ⋅ ∥ 2 \|\cdot\|_2 2
    谱范数,是诱导范数的一种,也称为矩阵的 诱导 L 2 L_2 L2-范数,其定义在最上面

是矩阵的最大奇异值。它描述了矩阵作为线性变换时对向量的最大伸缩程度:

在实际计算时, 谱范数 ∥ ⋅ ∥ 2 \|\cdot\|_2 2 是矩阵的最大奇异值。对于矩阵 A \mathbf{A} A,定义为:
∥ A ∥ 2 = max ⁡ i σ i \|\mathbf{A}\|_2 = \max_i \sigma_i A2=imaxσi
其中 σ i \sigma_i σi 是矩阵 A \mathbf{A} A 的奇异值。

证明如下:

在实际计算中,诱导的 L2 范数,也称为矩阵的谱范数,等于矩阵的最大奇异值。这是因为矩阵的 L2 范数定义为:
∥ A ∥ 2 = sup ⁡ ∥ x ∥ 2 = 1 ∥ A x ∥ 2 \|A\|_2 = \sup_{\|x\|_2 = 1} \|Ax\|_2 A2=x2=1supAx2
也就是对单位向量 (x) 进行矩阵 (A) 作用后所得向量的最大长度(或范数)。这个定义可以理解为,L2 范数描述了矩阵 (A) 在欧几里得空间中作用时可能产生的最大拉伸效果。

在奇异值分解(SVD)中,任意矩阵 (A) 可以表示为:
A = U Σ V T A = U \Sigma V^T A=UΣVT
其中,(U) 和 (V) 是正交矩阵,而 (\Sigma) 是一个对角矩阵,包含了 (A) 的所有奇异值,即 (A) 的作用在不同方向上的尺度因子。

由于 (U) 和 (V) 是正交矩阵,它们的作用不会改变向量的长度(它们仅进行旋转和反射),矩阵 (A) 的拉伸效果完全由 (\Sigma) 矩阵中的对角元素(奇异值)来决定。因此,(A) 对向量的最大拉伸效果(即 L2 范数)就等于最大奇异值。

总结来说,矩阵的 L2 范数与其最大奇异值相等,因此在实际计算诱导 L2 范数时,只需找到矩阵的奇异值并取其中的最大值即可,而无需进一步计算复杂的向量优化问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2155653.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

AiAutoPrediction足球网与泊松分布足球预测比赛模型介绍

AiAutoPrediction足球软件上线于2020年9月,是国内首家将泊松分布概率公式应用于足球比赛比分预测的软件。 AiAutoPrediction足球系列软件如下: AIAutoPrediction SoccerPredictor |走地大小球|走地让球|走地角球|数据分析 AiScorePredictor 泊松分布…

这可能又是一款 Java 程序员的必备插件了,无需解压直接编辑修改 jar 包内文件,神器!(附源码)

作为一名 Java 程序员,在维护一些古老的程序时,可能会遇到这种情况:项目依赖的 jar 包过于久远,已经没有源码了,但是有不得不修改的 bug 要处理。这时候就得想办法反编译 jar 包进行修改,并且重新打包&…

基于51单片机的可燃性气体报警器设计

文章目录 前言资料获取设计介绍设计程序具体实现截图设计获取 前言 💗博主介绍:✌全网粉丝10W,CSDN特邀作者、博客专家、CSDN新星计划导师,一名热衷于单片机技术探索与分享的博主、专注于 精通51/STM32/MSP430/AVR等单片机设计 主要对象是咱们…

《财富之眼:用经济思维看清世界》pdf电子书下载

《财富之眼:用经济思维看清世界》pdf电子书下载 内容简介 一切社会现象都是经济现象,我们只能赚到自己认知范围内的 钱。我国社会主要矛盾已经转化为人民日益增长的美好生活需要和不 平衡不充分的发展之间的矛盾,其中“不平衡不充分”很大程…

无法删除选定的端口,不支持请求【笔记】

场景:在删除打印机端口时,提示:“无法删除选定的端口,不支持请求”,如下图所示。 以下以删除USB036端口为示例,操作步骤如下: 在注册表编辑器中,从以下注册表项中“计算机\HKEY_LO…

C++_22_异常

文章目录 异常概念:**抛出异常:**关键字: **捕获异常:****栈解旋:****异常的接口声明:****异常对象的生命周期:**1 传递异常对象【不使用】2 传递异常对象指针【不使用】3 传递异常对象引用【**…

Xilinx系FPGA学习笔记(八)FPGA与红外遥控

系列文章目录 文章目录 系列文章目录红外通信简单介绍红外协议分析 FPGA实现红外通信 红外通信 简单介绍 利用红外线来传送,不干扰其他电器设备工作,也不会影响周边环境,若对发射信号进行编码,可实现多路红外遥控功能。 红外遥控…

全面介绍 CSS 属性值计算 —— 掌握它就了解大部分 CSS

CSS 的核心之一就在此,直接影响我们开发中的调试和布局!!! 举个 🌰:页面上存在一个 h1 元素,不设置任何样式,但是当我们点开 computed 查看,几乎 MDN 上的 CSS 属性都存…

C++高精度计时方法总结(测试函数运行时间)

文章目录 一、clock()函数——毫妙级二、GetTickCount()函数(精度16ms左右)——毫妙级三、高精度时控函数QueryPerformanceCounter()——微妙级四、高精度计时chrono函数——纳妙级五、几种计时比较六、linux下的计时函数gettimeofday()-未测试参考文献 …

C语言6大常用标准库 -- 4.<math.h>

目录 引言 4. C标准库--math.h 4.1 简介 4.2 库变量 4.3 库宏 4.4 库函数 4.5 常用的数学常量 🌈你好呀!我是 程序猿 🌌 2024感谢你的陪伴与支持 ~ 🚀 欢迎一起踏上探险之旅,挖掘无限可能,共同成长&…

《他们的奇妙时光》圆满收官,葛秋谷新型霸总获好评

9月21日,由王枫、张开法执导,周洁琼、葛秋谷领衔主演的奇幻爱情题材都市喜剧《他们的奇妙时光》圆满收官。该剧讲述了意外被游戏角色刑天附体的设计师宋灵灵,为修复游戏漏洞,被迫与能压制刑天的甲方总裁萧然同居,两人在…

LDR6020在索尼PS5 VR2适配器中的应用技术方案探讨

随着虚拟现实(VR)技术的日益成熟,索尼PlayStation VR2(简称PS VR2)作为新一代VR设备,凭借其出色的性能和沉浸式体验,成为了游戏界的焦点。为了进一步扩大PS VR2的应用范围,索尼推出了…

深度学习02-pytorch-01-张量的创建

深度学习 pytorch 框架 是目前最热门的。 深度学习 pytorch 框架相当于 机器学习阶段的 numpy sklearn 它将数据封装成张量(Tensor)来进行处理,其实就是数组。也就是numpy 里面的 ndarray . pip install torch1.10.0 -i https://pypi.tuna.tsinghua.edu.cn/simp…

LLMs之LCM:《MemLong: Memory-Augmented Retrieval for Long Text Modeling》翻译与解读

LLMs之LCM:《MemLong: Memory-Augmented Retrieval for Long Text Modeling》翻译与解读 导读:MemLong 是一种新颖高效的解决 LLM 长文本处理难题的方法,它通过外部检索器获取历史信息,并将其与模型的内部检索过程相结合&#xff…

分布式网络存储技术是什么?分布式存储技术有哪些

分布式储存是指将数据分散存储在多个节点上的一种技术。但是你们知道分布式网络存储技术是什么?相比传统的集中式存储,分布式储存具有更高的可靠性和可用性。分布式网络存储是一种将数据分散存储在多个节点或服务器上的架构。 分布式网络存储技术是什么&…

开源 AI 智能名片 S2B2C 商城小程序与营销工具的快速迭代

摘要:本文以开源 AI 智能名片 S2B2C 商城小程序为研究对象,探讨在营销工具快速迭代的背景下,该小程序如何借鉴以拼多多为代表的“小程序拼团”、以蘑菇街为代表的“小程序直播”、以花点时间为代表的“小程序按月订花”等经典案例&#xff0c…

springboot注册和注入组件方式概览

IoC:Inversion of Control(控制反转) 控制:资源的控制权(资源的创建、获取、销毁等) 反转:和传统的方式不一样了 DI :Dependency Injection(依赖注入) 依赖&…

【HTTPS】对称加密和非对称加密

HTTPS 是什么 HTTPS 是在 HTTP 的基础上,引入了一个加密层(SSL)。HTTP 是明文传输的(不安全) 当下所见到的大部分网站都是 HTTPS 的,这都是拜“运营商劫持”所赐 运营商劫持 下载⼀个“天天动听“&…

剖析枚举类型的使用与优点

枚举类型顾名思义——就是把所有的值一一列举出来 列如星期 把每一项都列举出来就是枚举 这些可能取值都是有值的,默认从0开始,依次递增1,当然在声明枚举类型的时候也可以赋初值, 要是在某一项赋初值之后,后面的就会…

客户转化预测以及关键因素识别_支持向量机与相关性分析

数据入口:数字营销转化数据集 - Heywhale.com 数据集记录了客户与数字营销活动的互动情况。它涵盖了人口统计数据、营销特定指标、客户参与度指标以及历史购买数据,为数字营销领域的预测建模和分析提供了丰富的信息。 数据说明: 字段说明Cu…