高斯分布的乘积与卷积

news2024/11/20 1:53:00

 高斯分布是一个很重要的连续分布形式,频繁出现各种应用场景里也可以导出很多分布,如在典型的线性回归中对误差 \small \varepsilon的建模就是用的标准正态分布,统计学的学生分布就是从正态分布中导出。随着贝叶斯统计学的广泛应用,相乘的高斯分布(高斯先验)等形式也出现在公式中,例如高斯线性系统,本文就这些形式进行说明。

1. 一元高斯分布的乘积

假设\small p(x_1)=\mathcal{N}(x\vert \mu_1,\sigma_1), \, p(x_2)=\mathcal{N}(x\vert \mu_2,\sigma_2),均是关于变量\large x的高斯分布,现计算高斯分布的乘积\small p(x_1)p(x_2)的分布形式。

        \large \begin{align*} p(x_1)p(x_2) & = exp\{​{-\frac{1}{2\sigma_1^2}\, (x-\mu_1)^2}\}exp\{​{-\frac{1}{2\sigma_2^2}\, (x-\mu_2)^2}\} \\ & =exp\{​{-\frac{1}{2}\frac{(\sigma_1^2\, +\sigma_2^2)\, \, x^2-2(\mu_1\, \sigma_2^2+\mu_2\, \sigma_1^2)x+\text{constant}}{\sigma_1^2\sigma_2^2}}\}\end{align*}

得两个高斯分布相乘仍为缩放的高斯分布,通过配方得到缩放的高斯分布参数为:

                                                \large \begin{align*} \mu & = \frac{\mu_1\sigma_2^2+\mu_2\sigma_1^2}{\sigma_1^2+\sigma_2^2} \\ \sigma & = \sqrt{\frac{\sigma_1^2\sigma_2^2}{\sigma_1^2+\sigma_2^2}} \end{align*}

上式可写为如下形式,从而推广至 \large n 个一维高斯分布相乘:

                                                \large \begin{align*} \mu &= (\frac{\mu_1}{\sigma_1^2}+\frac{\mu_2}{\sigma_2^2})\sigma^2 \\ \frac{1}{\sigma^2} &= \frac{1}{\sigma_1^2} + \frac{1}{\sigma_2^2} \end{align*}

2. 多元高斯分布的乘积

我们熟知的多元高斯分布形式如下:

                                        \large f(X)=\large \frac{1}{​{2\pi}^{\frac{D}{2}}\vert \Sigma\vert^{\frac{1}{2}}}\, e^{-\frac{1}{2}(\mathbf{x}-\mathbf{\mu})^T\Sigma^{-1}\, (\mathbf{x}-\mathbf{\mu})}

多元高斯分布的另一种形式自然分布形式用到的参数为:

        ​​​​​​​        ​​​​​​​                        ​​​​​​​        \large \begin{align*} \Lambda &=\Sigma^{-1} \\ \xi &= \Sigma^{-1}\mu \end{align*}

带入,得到另一种分布形式表示如下:

                                \large f(X)=\large \frac{1}{​{2\pi}^{\frac{D}{2}}}\vert \Lambda\vert\ ^{\frac{1}{2}}\, exp\{​{-\frac{1}{2}(\mathbf{x}^T\Lambda\mathbf{x}-2\mathbf{x}^T\xi+\xi^T\Lambda^{-1}\, \xi)}\}

将指数外的系数放入指数部分,得到:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​            \large \large exp\{​{-\frac{1}{2}\mathbf{x}^T\Lambda\mathbf{x}+\xi^T\mathbf{x}-\zeta}\}

其中\large \zeta\为:

        ​​​​​​​        ​​​​​​​        \large \zeta\ = \frac{1}{2}(\xi^T\Lambda^{-1}\xi+D\log^{2\pi}-\log^{\vert \Lambda \vert})

在多个多元高斯相乘时,得到的结果如下:

        ​​​​​​​        ​​​​​​​        ​    \large f(X)=\large exp\{​{-\frac{1}{2}\mathbf{x}^T(\sum\limits_i^n\Lambda_i)\mathbf{x}+(\sum\limits_i^n\xi_i)^T\mathbf{x}-\sum\limits_i^n\zeta_i}\}

通过对\large \zeta\进行变换可以发现,仍为多元高斯分布。

上述两个式子均是通过配方法来寻找新分布的参数,而其中的normalization项则并不那么重要。

3. 一元高斯分布的卷积

这一部分的内容来自于"Machine Learning A Probabilistic Perspective"一书的第四章p132~p134。假设多元高斯分布的参数μ,Σμ,Σ来自服从Normal-inverse-wishart分布:

        ​​​​​​​        ​​​​​​​        \large \large \begin{align*} \mathcal{N}(\mu\vert m_0,\frac{1}{\kappa_0}\Sigma)\times \text{IW}(\Sigma\vert S_0,v_0)\\ =\frac{1}{\text{Z}_{\text{NIW}}}\vert\Sigma\vert^{-\frac{1}{2}}exp\{​{-\frac{\kappa_0}{2}\, (\mu-m_0)^T\Sigma^{-1}\, (\mu-m_0)}\}\times \\ \vert \Sigma \vert^{-\frac{v+D+1}{2}}exp\{​{-\frac{1}{2}tr(S_0\Sigma^{-1}\, )}\} \end{align*}

在观测到一批数据集\large \mathcal D后,计算似然为:

        ​​​​​​​        ​​​​​​​        ​​​     \large \large \vert \Sigma\vert^{-\frac{N}{2}}exp\{​{-\frac{N}{2}(\mu-\bar{x})^T\Sigma^{-1}\, (\mu-\bar{x})}\}\times exp\{​{-\frac{1}{2}tr(S_{\bar x}\Sigma^{-1}\, )}\}

在计算参数后验的分布时,用到了多元高斯分布相乘的方法。现假设:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        \large \begin{align*} \Lambda_1&=\kappa_0\Sigma^{-1}\\ \Lambda_2&=N\Sigma^{-1}\\ \xi_1&=\kappa_0\Sigma^{-1}m_0\\ \xi_2&=N\Sigma^{-1}\bar{x}\\ \end{align*}

利用相同的方法,可以得到

                                        \large \begin{align*} \Lambda&=(\kappa_0+N)\Sigma^{-1}\\ m_N&=\Lambda^{-1}(\xi_1+\xi_2)\\ &=\frac{\kappa_0m_0+N\bar{x}}{\kappa_0+N} \end{align*}

4. 高斯线性系统

这一部分的内容来自于"Machine Learning A Probabilistic Perspective"一书的第四章。这部分的内容可能与前面所述的不一致(多个均为同一变量\large x分布的分布)。高斯线性系统如下:

        ​​​​​​​                ​​​​​​​        ​​​​​​​        \large \begin{align*} p(x)=\mathcal{N}(\mathbf{\mu_0,\Sigma_0})\\ p(y\vert x)=\mathcal{N}(A\mathcal{x}+b,\Sigma_y) \end{align*}

\large y\large x产生,在观测到\large y后可以对\large x进行更新:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        \large p(x\vert y) = \mathcal{N}(\mu_{x\vert y},\Sigma_{x\vert y})

下面对\large \mu_{x\vert y},\Sigma_{x\vert y} 进行计算。已知p\large p(x,y)=p(y\vert x)p(x)\large p(x,y)=p(y\vert x)p(x)的指数部分为:

        ​​​​​​​        \large \large \begin{align*} x^T(\Sigma_0^{-1}+& A^T\Sigma_y^{-1}A)x -2x^T(\Sigma_0^{-1}\mu_{0}+A^T\Sigma_y^{-1}(y-b)) +\\ & (y-b)^T\Sigma_y^{-1}(y-b) + \mu_0^{T}\Sigma_0^{-1}\mu_0 \end{align*}

通过配方可以得到:

                        ​​​​​​​                \large \large \begin{align*} \Sigma_{x\vert y}^{-1} & = \Sigma_{0}^{-1}+A^T\Sigma_{y}^{-1}A\\ \mu_{x \vert y}& = \Sigma_{x\vert y}(\Sigma_0^{-1}\mu_0+A^T\Sigma_{y}^{-1}(y-b)) \end{align*}

下面对\large p(y)进行求解,我们知道

        ​​​​​​​        ​​​​​​​        ​​​​​​​                \large p(y)=\int p(y\vert x)p(x) dx

                                        \large p(x)p(y\vert x)=p(y)p(x\vert y)

通过上述的式子,如果对上式求积分或者配方会有些复杂。实际上,通过上式可以得到\large p(x,y)逆协方差矩阵:

                                \large \Lambda=\begin{bmatrix} \Sigma_0^{-1}+A^T\Sigma_y^{-1}A & -A^T\Sigma_y^{-1} \\ -\Sigma_y^{-1}A & \Sigma_y^{-1} \end{bmatrix}

利用联合高斯分布的推断结论,可以得到:

        ​​​​​​​        \large \begin{align*} \mu_{x\vert y} &= \Sigma_{x\vert y}(\Sigma_{x\vert y}^{-1}\mu_0-\Lambda_{12}(y-\mu_y))\\ &=\Sigma_{x\vert y}(\Sigma_0^{-1}\mu_0+A^T\Sigma_{y}^{-1}A\mu_0+A^T\Sigma_{y}^{-1}(y-\mu_y))\\ &=\Sigma_{x\vert y}(\Sigma_0^{-1}\mu_0+A^T\Sigma_{y}^{-1}(y-b)) \end{align*}

可以推知:

                                \large \mu_y=A\mu_0+b

再对\large \Sigma_y'(这里\large \Sigma_y'表示\large p(y)的协方差矩阵)进行计算:

        ​​​​​​​        ​​​​​​​                        \large \begin{align*} \Sigma&=\begin{bmatrix} \Sigma_x & \Sigma_{xy}\\ \Sigma_{xy}^T & \Sigma_{y} \end{bmatrix}\\ &=\Lambda^{-1} \end{align*}

        ​​​​​​​        \large \begin{align*} \begin{bmatrix} \rm{I} & A^T\\ 0 & \rm{I} \end{bmatrix}\Lambda \begin{bmatrix} \rm{I} & 0 \\ A & \rm{I} \end{bmatrix} &= \begin{bmatrix} \Sigma_0^{-1} & 0 \\ 0 & \Sigma_y^{-1} \end{bmatrix}\\ \Lambda^{-1}&= \begin{bmatrix} \rm{I} & 0 \\ A & \rm{I} \end{bmatrix} \begin{bmatrix} \Sigma_0 & 0 \\ 0 & \Sigma_y \end{bmatrix} \begin{bmatrix} \rm{I} & A^T\\ 0 & \rm{I} \end{bmatrix}\\ & = \begin{bmatrix} \Sigma_0 & \Sigma_0A^T\\ A\Sigma_0 & \Sigma_y+A\Sigma_0A^T \end{bmatrix} \end{align*}

  ​​​​​​​因此:

                                                \large \Sigma_y'=\Sigma_y+A\Sigma_0 A^T\

\large p(y)的分布参数如下:

                                ​​​​​​​        ​​​​​​​        \large \begin{align*} \mu &= A\mu_0 +b \\ \Sigma &= \Sigma_y+A\Sigma_0A^T \end{align*}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/29298.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【仿真建模】第四课:AnyLogic入门基础课程 - 轨道交通仿真入门讲解

文章目录一、轨道库的概念和特点二、轨道交通仿真三、更换车头和车身样式一、轨道库的概念和特点 二、轨道交通仿真 新建模型 搭建轨道 定义轨道上的起点和终点 拖拽出一个trainSource,设置其车厢数量为4(默认为11,车厢太多会超出轨道&…

nginx(六十)proxy模块(一)proxy_pass指令

一 proxy模块处理请求的流程 ① 流程图 说明: nginx从client接收的是http协议,转发给上游的也是http协议备注: 后续根据处理请求的流程,来讲解相关指令 二 proxy_pass ① 基本解读 说明: proxy_pass是一个动作指令 ② proxy_pass的…

【题型总结】找到第n个自定义数 | 丑数系列 + 神奇数字

文章目录找到第n个自定义数丑数【LC263】丑数Ⅱ【LC264】优先队列多指针超级丑数【LC313】优先队列【超时】多指针第N个神奇数字【LC878】找规律二分查找数学丑数Ⅲ【LC1201】二分查找数学总结找到第n个自定义数 因为神奇数字做了相关的题目,个人建议做题顺序&…

涨知识!Python 的异常信息还能这样展现

【导语】:在日常开发的过程中,当代码报错时,我们通常要不断打印、阅读traceback提示信息,来调试代码,这篇文章介绍了如何实现一个Exception Hooks,使得traceback模块的提示信息更加精确;同时还介…

java项目-第159期ssm超市管理系统_ssm毕业设计_计算机毕业设计

java项目-第159期ssm超市管理系统-ssm毕业设计_计算机毕业设计 【源码请到资源专栏下载】 今天分享的项目是《ssm超市管理系统》 该项目分为2个角色,管理员、员工。 员工登录后台主要负责商品的出入库,以及个人事项办理,比如: 上…

技术分享| 快对讲视频调度功能说明

随着计算机技术的日趋成熟,融合调度方案已经在行业信息化中普及,由于近几年实时音视频能力的提升,融合调度中的视频调度方案也在往实时性、高清方向靠拢。快对讲视频调度正是结合了视频监控,以及实时通信的特性,在市面…

传奇GOM引擎单机架设图文教程

T:准备下载好服务端(版本)gom引擎架设 选择GOM引擎版本 注;版本可以去论坛有免费,电脑还需要下载安装好客户端。 1.首先下载好版本后会有2个压缩包,一个是版本,一个是补丁, 简单来说架设分三部&#xff1…

Scrum 四个会议的正确召开方式

敏捷开发有一些重要的实践方法,可以帮助团队更快地适应敏捷开发框架。这些方法不能简单照搬执行,比如,只在瀑布开发模式下中加入 Scrum 的四个会议,这无法让瀑布团队转成敏捷团队。敏捷转型需要深入理解概念和思维,团队…

【Linux】第十四章 多线程(生产者消费者模型+POSIX信号量)

🏆个人主页:企鹅不叫的博客 ​ 🌈专栏 C语言初阶和进阶C项目Leetcode刷题初阶数据结构与算法C初阶和进阶《深入理解计算机操作系统》《高质量C/C编程》Linux ⭐️ 博主码云gitee链接:代码仓库地址 ⚡若有帮助可以【关注点赞收藏】…

JavaSE中split方法详细原理讲解分析

文章目录方法1:split(String [regex](https://so.csdn.net/so/search?qregex&spm1001.2101.3001.7020))入门案例1入门案例2入门案例3入门案例4分隔符三个特殊位置特殊案例1特殊案例2方法2:split(String regex,int limit)limit用法:进阶案例:limit>0限制分割次数limit&l…

图神经网络关系抽取论文阅读笔记(二)

1 用于关系抽取的生成式参数图神经网络 论文:Graph Neural Networks with Generated Parameters for Relation Extraction(2019 ACL) 1.1 创新点 传统的图神经网络在进行NLP任务时,图的拓扑结构都是预先定义好的,之后再…

已解决OSError: [Errno 22] Invalid argument

已解决OSError: [Errno 22] Invalid argument 文章目录报错代码报错翻译报错原因解决方法帮忙解决报错代码 粉丝群里面的一个粉丝用Python读取文件的时候,发生了报错(跑来找我求助,然后顺利帮助他解决了,顺便记录一下希望可以帮助…

PTA题目 前世档案

网络世界中时常会遇到这类滑稽的算命小程序,实现原理很简单,随便设计几个问题,根据玩家对每个问题的回答选择一条判断树中的路径(如下图所示),结论就是路径终点对应的那个结点。 现在我们把结论从左到右顺序…

UnityVR一体机报错:GL_OUT_OF_MEMORY,[EGL] Unable to acquire context

一、 报错信息一览 (1) [EGL] Unable to acquire context: E Unity : [EGL] Unable to acquire context: EGL_BAD_SURFACE: An EGLSurface argument does not name a valid surface (window, pixel buffer or pixmap) configured for GL rendering. 解决…

AQS源码解析 4.Condition条件队列入门_手写BrokingQueue

AQS源码解析—Condition条件队列入门_手写BrokingQueue Condition 条件队列介绍 AQS 中还有另一个非常重要的内部类 ConditionObject,它实现了 Condition 接口,主要用于实现条件锁。ConditionObject 中也维护了一个队列,这个队列主要用于等…

动态规划算法学习三:0-1背包问题

文章目录前言一、问题描述二、DP解决步骤1、最优子结构性质2、状态表示和递推方程3、算法设计与分析4、计算最优值5、算法实现6、缺点与思考前言 一、问题描述 二、DP解决步骤 1、最优子结构性质 2、状态表示和递推方程 子问题可由两个参数确定:待考虑装包的物品…

【C/调试实用技巧】—作为程序员应如何面对并尝试解决Bug?

小菜坤日常上传gitee代码:https://gitee.com/qi-dunyan 关于C语言的所有由浅入深的知识,都存放在专栏【c】 ❤❤❤ 个人简介:双一流非科班的一名小白,期待与各位大佬一起努力! 推荐网站:cplusplus.com 目录…

Springboot集成ItextPdf

目录 一、概述 二、Itext API 1.PDF文档生成 3.常用对象 一、文档对象 二、操作对象 三、内容对象 四、表格对象 四、常用案例 一、水印 三、页眉页脚 四、合并多个PDF 五、表单PDF 六、模板PDF 一、html模板 二、使用工具构建PDF模板 7、HTML转PDF 8、删除页…

同花顺_知识_庄家技法_4拉升技法

写在前面: 文中知识内容来自书籍《同花顺炒股软件从入门到精通》 目录 1. 拉升时机的选择 1)大盘走势稳健时 2)重大利好出台前后 3)进行一次凶狠的打压之后 4)大市偏弱时 5)图形及技术指标修好之时 …

FPGA开发(4)——AXI_LITE总线协议

一、AXI总线简介 对于axi总线的学习我主要是参考了赛灵思的ug1037文档以及arm的INI0022D手册,对其中的内容做了总结。 AXI是amba总线的一种,包含三种,axi full、axi lite和axi stream。 AXI工作:axi接口包含了五组通道&#xf…