高斯混合模型 GMM 的详细解释

news2024/9/25 5:21:50

高斯混合模型(后面本文中将使用他的缩写 GMM)听起来很复杂,其实他的工作原理和 KMeans 非常相似,你甚至可以认为它是 KMeans 的概率版本。 这种概率特征使 GMM 可以应用于 KMeans 无法解决的许多复杂问题。

因为KMeans的限制很多,比如: 它假设簇是球形的并且大小相同,这在大多数现实世界的场景中是无效的。并且它是硬聚类方法,这意味着每个数据点都分配给一个集群,这也是不现实的。

在本文中,我们将根据上面的内容来介绍 KMeans 的一个替代方案之一,高斯混合模型。

从概念上解释:高斯混合模型就是用高斯概率密度函数(正态分布曲线)精确地量化事物,它是一个将事物分解为若干的基于高斯概率密度函数(正态分布曲线)形成的模型。

高斯混合模型 (GMM) 算法的工作原理

正如前面提到的,可以将 GMM 称为 概率的KMeans,这是因为 KMeans 和 GMM 的起点和训练过程是相同的。 但是,KMeans 使用基于距离的方法,而 GMM 使用概率方法。 GMM 中有一个主要假设:数据集由多个高斯分布组成,换句话说,GMM 模型可以看作是由 K 个单高斯模型组合而成的模型,这 K 个子模型是混合模型的隐变量(Hidden variable)

上述分布通常称为多模型分布。 每个峰代表我们数据集中不同的高斯分布或聚类。 我们肉眼可以看到这些分布,但是使用公式如何估计这些分布呢?

在解释这个问题之前,我们先创建一些高斯分布。这里我们生成的是多元正态分布; 它是单变量正态分布的更高维扩展。

让我们定义数据点的均值和协方差。 使用均值和协方差,我们可以生成如下分布。

 # Set the mean and covariance
 mean1= [0, 0]
 mean2= [2, 0]
 cov1= [[1, .7], [.7, 1]]
 cov2= [[.5, .4], [.4, .5]]
 
 # Generate data from the mean and covariance
 data1=np.random.multivariate_normal(mean1, cov1, size=1000)
 data2=np.random.multivariate_normal(mean2, cov2, size=1000)

可视化一下生成的数据

 plt.figure(figsize=(10,6))
 
 plt.scatter(data1[:,0],data1[:,1])
 plt.scatter(data2[:,0],data2[:,1])
 
 sns.kdeplot(data1[:, 0], data1[:, 1], levels=20, linewidth=10, color='k', alpha=0.2)
 sns.kdeplot(data2[:, 0], data2[:, 1], levels=20, linewidth=10, color='k', alpha=0.2)
 
 plt.grid(False)
 plt.show()

我们上面所做的工作是:使用均值和协方差矩阵生成了随机高斯分布。 而 GMM 要做正好与这个相反,也就是找到一个分布的均值和协方差,那么怎么做呢?

工作过程大致如下:

为给定的数据集确定聚类的数量(这里我们可以使用领域知识或其他方法,例如 BIC/AIC)。 根据我们上面的参数,有 1000 个数据点,和两个簇2。

初始化每个簇的均值、协方差和权重参数。

使用期望最大化算法执行以下操作:

  • 期望步骤(E-step):计算每个数据点属于每个分布的概率,然后使用参数的当前估计评估似然函数
  • 最大化步骤(M-step):更新之前的均值、协方差和权重参数,这样最大化E步骤中找到的预期似然
  • 重复这些步骤,直到模型收敛。

以上是GMM 算法的非数学的通俗化的解释。

GMM 数学原理

有了上面的通俗解释,我们开始进入正题,上面的解释可以看到GMM 的核心在于上一节中描述的期望最大化 (EM) 算法。

在解释之前,我们先演示一下 EM 算法在 GMM 中的应用。

1、初始化均值、协方差和权重参数

  • mean (μ): 随机初始化
  • 协方差 (Σ):随机初始化
  • 权重(混合系数)(π):每个类的分数是指特定数据点属于每个类的可能性。 一开始,这对所有簇都是平等的。 假设我们用三个分量拟合 GMM,那么每个组件的权重参数可能设置为 1/3,这样概率分布为 (1/3, 1/3, 1/3)。

2、期望步骤(E-step)

对于每个数据点𝑥𝑖,使用以下等式计算数据点属于簇 (𝑐) 的概率。 这里的k是我分布(簇)数。

上面的𝜋_𝑐是高斯分布c的混合系数(有时称为权重),它在上一阶段被初始化,𝑁(𝒙|𝝁,𝚺)描述了高斯分布的概率密度函数(PDF),均值为𝜇和 关于数据点 x 的协方差 Σ; 所以可以有如下表示。

E-step 使用模型参数的当前估计值计算概率。 这些概率通常称为高斯分布的“responsibilities”。 它们由变量 r_ic 表示,其中 i 是数据点的索引,c 是高斯分布的索引。 responsibilities衡量第 c 个高斯分布对生成第 i 个数据点“负责”的程度。 这里使用条件概率,更具体地说是贝叶斯定理。

一个简单的例子。 假设我们有 100 个数据点,需要将它们聚类成两组。 我们可以这样写 r_ic(i=20,c=1) 。 其中 i 代表数据点的索引,c 代表我们正在考虑的簇的索引。

不要忘记在开始时,𝜋_𝑐 会初始化为等值。 在我们的例子中,𝜋_1 = 𝜋_2 = 1/2。

E-step 的结果是混合模型中每个数据点和每个高斯分布的一组responsibilities。 这些responsibilities会在 M-step更新模型参数的估计。

3、最大化步骤(M-step)

算法使用高斯分布的responsibilities(在 E-step中计算的)来更新模型参数的估计值。

M-step更新参数的估计如下:

上面的公式 4 更新 πc(混合系数),公式 5 更新 μc,公式6 更新 Σc。更新后的的估计会在下一个 E-step 中用于计算数据点的新responsibilities。

GMM 将将重复这个过程直到算法收敛,通常在模型参数从一次迭代到下一次迭代没有显着变化时就被认为收敛了。

让我们将上面的过程整理成一个简单的流程图,这样可以更好的理解:

数学原理完了,下面该开始使用 Python 从头开始实现 GMM了

使用 Python 从头开始实现 GMM

理解了数学原理,GMM的代码也不复杂,基本上上面的每一个公式使用1-2行就可以完成

首先,创建一个实验数据集,我们将为一维数据集实现 GMM,因为这个比较简单

 importnumpyasnp
 
 n_samples=100
 mu1, sigma1=-5, 1.2
 mu2, sigma2=5, 1.8
 mu3, sigma3=0, 1.6
 
 x1=np.random.normal(loc=mu1, scale=np.sqrt(sigma1), size=n_samples)
 x2=np.random.normal(loc=mu2, scale=np.sqrt(sigma2), size=n_samples)
 x3=np.random.normal(loc=mu3, scale=np.sqrt(sigma3), size=n_samples)
 
 X=np.concatenate((x1,x2,x3))

下面是可视化的函数封装

 fromscipy.statsimportnorm
 
 defplot_pdf(mu,sigma,label,alpha=0.5,linestyle='k--',density=True):
     """
     Plot 1-D data and its PDF curve.
 
     """
     # Compute the mean and standard deviation of the data
 
     # Plot the data
     
     X=norm.rvs(mu, sigma, size=1000)
     
     plt.hist(X, bins=50, density=density, alpha=alpha,label=label)
 
     # Plot the PDF
     x=np.linspace(X.min(), X.max(), 1000)
     y=norm.pdf(x, mu, sigma)
     plt.plot(x, y, linestyle)

并绘制生成的数据如下。 这里没有绘制数据本身,而是绘制了每个样本的概率密度。

 plot_pdf(mu1,sigma1,label=r"$\mu={} \ ; \ \sigma={}$".format(mu1,sigma1))
 plot_pdf(mu2,sigma2,label=r"$\mu={} \ ; \ \sigma={}$".format(mu2,sigma2))
 plot_pdf(mu3,sigma3,label=r"$\mu={} \ ; \ \sigma={}$".format(mu3,sigma3))
 plt.legend()
 plt.show()

下面开始根据上面的公式实现代码:

1、初始化

 defrandom_init(n_compenents):
     
     """Initialize means, weights and variance randomly 
       and plot the initialization
     """
     
     pi=np.ones((n_compenents)) /n_compenents
     means=np.random.choice(X, n_compenents)
     variances=np.random.random_sample(size=n_compenents)
 
     plot_pdf(means[0],variances[0],'Random Init 01')
     plot_pdf(means[1],variances[1],'Random Init 02')
     plot_pdf(means[2],variances[2],'Random Init 03')
     
     plt.legend()
     plt.show()
     
     returnmeans,variances,pi

2、E step

 defstep_expectation(X,n_components,means,variances):
     """E Step
     
     Parameters
     ----------
     X : array-like, shape (n_samples,)
         The data.
     n_components : int
         The number of clusters
     means : array-like, shape (n_components,)
         The means of each mixture component.
     variances : array-like, shape (n_components,)
         The variances of each mixture component.
         
     Returns
     -------
     weights : array-like, shape (n_components,n_samples)
     """
     weights=np.zeros((n_components,len(X)))
     forjinrange(n_components):
         weights[j,:] =norm(loc=means[j],scale=np.sqrt(variances[j])).pdf(X)
     returnweights

3、M step

 defstep_maximization(X,weights,means,variances,n_compenents,pi):
     """M Step
     
     Parameters
     ----------
     X : array-like, shape (n_samples,)
         The data.
     weights : array-like, shape (n_components,n_samples)
         initilized weights array
     means : array-like, shape (n_components,)
         The means of each mixture component.
     variances : array-like, shape (n_components,)
         The variances of each mixture component.
     n_components : int
         The number of clusters
     pi: array-like (n_components,)
         mixture component weights
         
     Returns
     -------
     means : array-like, shape (n_components,)
         The means of each mixture component.
     variances : array-like, shape (n_components,)
         The variances of each mixture component.
     """
     r= []
     forjinrange(n_compenents):  
 
         r.append((weights[j] *pi[j]) / (np.sum([weights[i] *pi[i] foriinrange(n_compenents)], axis=0)))
 
         #5th equation above
         means[j] =np.sum(r[j] *X) / (np.sum(r[j]))
         
         #6th equation above
         variances[j] =np.sum(r[j] *np.square(X-means[j])) / (np.sum(r[j]))
         
         #4th equation above
         pi[j] =np.mean(r[j])
 
     returnvariances,means,pi

然后就是训练的循环

 deftrain_gmm(data,n_compenents=3,n_steps=50, plot_intermediate_steps_flag=True):
     """ Training step of the GMM model
     
     Parameters
     ----------
     data : array-like, shape (n_samples,)
         The data.
     n_components : int
         The number of clusters
     n_steps: int
         number of iterations to run
     """
     
     #intilize model parameters at the start
     means,variances,pi=random_init(n_compenents)
 
     forstepinrange(n_steps):
         #perform E step
         weights=step_expectation(data,n_compenents,means,variances)
         #perform M step
         variances,means,pi=step_maximization(X, weights, means, variances, n_compenents, pi)
 
     plot_pdf(means,variances)

这样就完成了,让我们看看 GMM 表现如何。

在上图中红色虚线表示原始分布,而其他颜色表示学习分布。 第 30 次迭代后,可以看到的模型在这个生成的数据集上表现良好。

这里只是为了解释GMM的概念进行的Python实现,在实际用例中请不要直接使用,请使用scikit-learn提供的GMM,因为它比我们这个手写的要快多了,具体的对象名是

sklearn.mixture.GaussianMixture

,它的常用参数如下:

  • tol:定义模型的停止标准。 当下限平均增益低于 tol 参数时,EM 迭代将停止。
  • init_params:用于初始化权重的方法

总结

本文对高斯混合模型进行全面的介绍,希望阅读完本文后你对 GMM 能够有一个详细的了解,GMM 的一个常见问题是它不能很好地扩展到大型数据集。如果你想自己尝试,本文的完整代码在这里:

https://avoid.overfit.cn/post/c9ca4de6d42d4d67b80cc789e921c636

作者:Ransaka Ravihara

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/430653.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【factoryio】虚拟仓储实现(入仓出仓)

实现虚拟工厂场景之一的智能仓储实验 注:本文仅供参考 目录 引 入仓部分 1.上料部分 1.效果 2.实现 2.入仓部分 1.效果 2.实现 3.入仓扩展 1.行列控制和优先级 2.入仓优化和完善 出仓部分 1.出仓 2.后传送带 3.出仓效果 1.效果 2.优先级 3.完…

Linux时间服务器(ntp)

1.配置ntp时间服务器,确保客户端主机能和服务主机同步时间 2.配置ssh免密登陆,能够通过客户端主机通过redhat用户和服务端主机基于公钥验证方式进行远程连接 一.配置ntp时间服务器,确保客户端主机能和服务主机同步时间 1、软件安装 [rootl…

高速前行的低代码,其能力边界到底在哪?

最近半年,有好些来自不同岗位、不同立场的人开始问同一个问题:低代码平台的边界是什么?低代码无所不能吗? “全民开发”、“人人都是开发者”这样的口号愈演愈烈,“低代码能力有没有边界”、“边界在哪”,这…

数据要素化全面提速,数据复制将迎来春天?

数据复制市场将迎来真正的春天? 目前看的确如此。近日,国家发改委密集发文,从产权、分配、流通、安全等多个角度解读“数据二十条”( 《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》,简称“数据二…

算法的时间复杂度和空间复杂度(1)

1.算法效率 2.时间复杂度 3.空间复杂度 1.算法效率 如何衡量一个算法的好坏&#xff1f; 比如对于以下斐波那契数列&#xff1a; long long Fib(int N) { if(N < 3) return 1; return Fib(N-1) Fib(N-2)&#xff1b; } 斐波那契数列的递归实现方式非常简洁&#xff0c;但…

SOFA Weekly|SOFA 开源五周年来自社区家人的祝福、社区本周贡献 issue 精选

SOFA WEEKLY | 每周精选 筛选每周精华问答&#xff0c;同步开源进展欢迎留言互动&#xff5e;SOFAStack&#xff08;Scalable Open Financial Architecture Stack&#xff09;是蚂蚁集团自主研发的金融级云原生架构&#xff0c;包含了构建金融级云原生架构所需的各个组件&#…

《程序员面试金典(第6版)》面试题 10.05. 稀疏数组搜索(二分法,分治算法入门题目,C++)

题目描述 稀疏数组搜索。有个排好序的字符串数组&#xff0c;其中散布着一些空字符串&#xff0c;编写一种方法&#xff0c;找出给定字符串的位置。 示例1: 输入: words [“at”, “”, “”, “”, “ball”, “”, “”, “car”, “”, “”,“dad”, “”, “”], s “t…

2023有哪些便宜好用的蓝牙耳机?性价比最高的无线耳机排行

不管入手什么东西&#xff0c;性价比永远能成为人们入手的最重要的参考要素之一。那么&#xff0c;在蓝牙耳机市场中&#xff0c;有哪些便宜好用的蓝牙耳机&#xff1f;针对这个问题&#xff0c;我来给大家推荐几款性价比最高的无线耳机&#xff0c;一起来看看吧。 一、南卡小音…

采购系统是如何管理供应商的?

随着数字化的推进&#xff0c;企业面临着越来越多的供应商管理问题。企业采购数字化转型已经成为大势所趋&#xff0c;对于采购数字化转型而言&#xff0c;供应商管理是重要一环。 供应商准入管理 在供应商准入阶段&#xff0c;企业需要从供应商资质、财务能力、信誉能力、管理…

vite 安装腾讯im组件TUIKit问题记录

按照vue3ts要求安装依赖包 即时通信 IM Web & H5-含 UI 集成方案&#xff08;荐&#xff09;-文档中心-腾讯云 (tencent.com) 这个版本的文档采用全局安装sass&#xff1a; npm install -g sass sass-loader10.1.1 实际安装后遇到无法解析sass的错误提示&#xff0c;使用…

JumpServer堡垒机部署+基本使用

文章目录JumpServer 堡垒机一、理论知识&#xff1a;1、堡垒机与跳板机的区别2、JumpServer4A认证二、实践实验:1、初始化环境准备2、MySQL数据库部署3、Python3.6 程序部署4、Redis数据库部署5、Core组件部署6、Koko组件部署7、Guacamole组件部署1、安装FFmpeg2、安装Guacamol…

socket 及 字节序转换(嵌入式学习)

socket 及 字节序转换socket简介Socket为什么需要Socket&#xff1f;socket类型Socket通信模型字节序主机字节序到网络字节序网络字节序到主机字节序IP地址转换socket简介 1、1982 - Berkeley Software Distributions 操作系统引入了socket作为本地进程之间通信的接口 2、1986…

SAP MDG —— 使用DIF导入物料主数据 Part2 配置和应用

文章目录关于使用DIF处理物料主数据的相关信息配置定义数据传输对象类型 Object Types文件源和存档目录Web Dynpro 应用导入选项MDG_BS_FILE_IMPORT 的选择项本章小结关于使用DIF处理物料主数据的相关信息 配置 定义数据传输对象类型 Object Types 路径&#xff1a; MDGIMG-…

读懂AUTOSAR :DiagnosticLogAndTrace DLT(四)-- API解析

一、周期调用的函数&#xff1a;Dlt_TxFunction 根据参数DltGeneralTrafficShapingSupport&#xff0c;决定如何去发送DLT消息。如果为TRUE&#xff0c;那需要参考参数DltLogChannelTrafficShapingBandwidth为每个Log通道设置发送带宽&#xff1b;如果为FALSE&#xff0c;那么…

《LKD3粗读笔记》(9)内核同步介绍

文章目录1、临界区和竞争条件2、 加锁3、死锁4、争用和扩展性实现内核同步的意义是什么&#xff1f; 目前内核支持SMP&#xff0c;所以共享资源一定要防止并发访问&#xff0c;如果多个执行线程同时访问和操作数据&#xff0c;就可能发生各线程之间相互覆盖共享数据情况&#x…

ABeam News | 松下家电(中国)生产销售一体化SAP S/4HANA项目正式启动

近日&#xff0c;由德硕管理咨询&#xff08;上海&#xff09;有限公司参与实施的松下家电&#xff08;中国&#xff09;生产销售一体化SAP S/4HANA项目正式上线&#xff0c;松下集团代表董事全球副总裁本间哲朗先生及ABeam大中华区董事长兼总经理中野洋辅先生出席了项目启动会…

【实验报告】实验二 图像空间域频率域滤波

一&#xff0e;实验目的&#xff1a; 1. 模板运算是空间域图象增强的方法&#xff0c;也叫模板卷积。 &#xff08;1&#xff09;平滑&#xff1a;平滑的目的是模糊和消除噪声。平滑是用低通滤波器来完成&#xff0c;在空域中全是正值。 &#xff08;2&#xff09;锐化&…

【超全总结】集成环信消息推送注意事项(华为、oppo、vivo等)

环信即时通讯 IM 支持集成第三方厂商的消息推送服务&#xff0c;为 Android 开发者提供低延时、高送达、高并发、不侵犯用户个人数据的离线消息推送服务。 当客户端应用进程被关闭等原因导致用户离线&#xff0c;环信即时通讯 IM 服务会通过第三方厂商的消息推送服务向该离线用…

鸿蒙Service Ability的前世今生--进阶篇

二、SA的配置 ​ SA的运行需要配合多个配置项&#xff0c;此节专门对此进行说明。 ​ OpenHarmony中SA一般由两个配置文件和一个so组成。上一章节已介绍了生成so中代码。此节描述下另外两个配置文件(.cfg或.rc、xml)。 ​ SA的启动一般采用.cfg或.rc .xml libxxx.z.so方式…

Python 编程必不可少的unittest测试框架

一段表面看起来平平无常的代码&#xff0c;很可能暗藏很多bug无法一眼看透&#xff0c;没有经过测试的代码是不可靠的代码。上一篇讲过pytest测试框架这次我们换个框架。 unittest 是一个单元测试框架&#xff0c;单元测试完成对一个模块、一个类或一个函数的运行结果进行检验…