机器学习笔记之生成模型综述(三)生成模型的表示、推断、学习任务

news2024/11/27 16:38:06

机器学习笔记之生成模型综述——表示、推断、学习任务

  • 引言
    • 生成模型的表示任务
      • 从形状的角度观察生成模型的表示任务
      • 从概率分布的角度观察生成模型的表示任务
    • 生成模型的推断任务
    • 生成模型的学习任务

引言

上一节介绍了从监督学习、无监督学习任务的角度介绍了经典模型。本节将从表示、推断、学习三个任务出发,继续介绍生成模型。

生成模型的表示任务

从形状的角度观察生成模型的表示任务

关于概率生成模型,从形状的角度,我们介绍更多的是概率图结构

  • 从概率图结构内部的随机变量结点出发,可以将随机变量划分为两种类型:

    • 离散型随机变量( Discrete Random Variable \text{Discrete Random Variable} Discrete Random Variable)
    • 连续型随机变量( Continuous Random Variable \text{Continuous Random Variable} Continuous Random Variable)

    例如高斯混合模型( Gaussian Mixture Model,GMM \text{Gaussian Mixture Model,GMM} Gaussian Mixture Model,GMM),它的概率图结构表示如下:
    生成模型-高斯混合模型-概率图结构
    其中隐变量 Z \mathcal Z Z是一个一维、离散型随机变量,它的概率分布 P ( Z ) \mathcal P(\mathcal Z) P(Z)可表示为:
    这里假设 Z \mathcal Z Z服从包含 K \mathcal K K种分类的 Categorial \text{Categorial} Categorial分布。
    P ( Z ) = { P 1 , P 2 , ⋯   , P K } ∑ k = 1 K P k = 1 \mathcal P(\mathcal Z) = \{\mathcal P_1,\mathcal P_{2},\cdots,\mathcal P_{\mathcal K}\} \quad \sum_{k=1}^{\mathcal K} \mathcal P_{k}= 1 P(Z)={P1,P2,,PK}k=1KPk=1
    当隐变量 Z \mathcal Z Z确定的条件下,对应的观测变量 X \mathcal X X是一个服从高斯分布( Gaussian Distribution \text{Gaussian Distribution} Gaussian Distribution)的连续型随机变量。
    关于 X \mathcal X X的维度,有可能是一维,也有可能是高维。均可用高斯分布进行表示。
    P ( X ∣ Z ) ∼ N ( μ k , Σ k ) k ∈ { 1 , 2 , ⋯   , K } \mathcal P(\mathcal X \mid \mathcal Z) \sim \mathcal N(\mu_{k},\Sigma_{k}) \quad k \in \{1,2,\cdots,\mathcal K\} P(XZ)N(μk,Σk)k{1,2,,K}

  • 连接随机变量结点的观察,也可以将边划分为两种类型:

    • 有向图模型( Directed Graphical Model \text{Directed Graphical Model} Directed Graphical Model)——由有向边构成的模型,也称贝叶斯网络( Batessian Network \text{Batessian Network} Batessian Network)。代表模型有隐马尔可夫模型( Hidden Markov Model,HMM \text{Hidden Markov Model,HMM} Hidden Markov Model,HMM),其概率图结构表示如下:
      有向图的特点是:能够直接观察出随机变量结点之间的因果关系。仅凭概率图结构就可以描述其联合概率分布的因子分解。相反,有向图内部结点的结构关系比较复杂。共包含三种结构(传送门——贝叶斯网络的结构表示)
      生成模型-隐马尔可夫模型-概率图结构
    • 无向图模型( Undirected Graphical Model \text{Undirected Graphical Model} Undirected Graphical Model)——由无向边构成的模型,也称马尔可夫随机场( Markov Random Field,MRF \text{Markov Random Field,MRF} Markov Random Field,MRF)。代表模型有受限玻尔兹曼机( Restricted Boltzmann Machine,RBM \text{Restricted Boltzmann Machine,RBM} Restricted Boltzmann Machine,RBM),其概率图结构表示如下:
      相比于有向图,无向图的特点是:结点内部结构关系简单,但仅能观察到结点之间存在关联关系而不是因果关系。通过极大团、势函数的方式描述联合概率分布(传送门——马尔可夫随机场的结构表示)
      生成模型-受限玻尔兹曼机-概率图结构
  • 随机变量结点类型的角度观察,可以将概率图模型分为两种类型:

    • 隐变量模型( Latent Variable Model,LVM \text{Latent Variable Model,LVM} Latent Variable Model,LVM):概率图结构中随机变量结点既包含隐变量、也包含观测变量。上面介绍的几种都属于隐变量模型。还有其他模型如 Sigmoid \text{Sigmoid} Sigmoid信念网络等等。
      隐变量本身是被假设出来的随机变量,它本身可能不存在实际意义。生成模型-sigmoid信念网络-概率图结构
    • 完全观测变量模型( Fully-Observed Model \text{Fully-Observed Model} Fully-Observed Model):与隐变量模型相反,该模型结构中所有随机变量结点均是观测变量,例如朴素贝叶斯分类器( Naive Bayes Classifier \text{Naive Bayes Classifier} Naive Bayes Classifier)
      这意味着概率图结构中的所有随机变量结点均是有真实意义的。
      生成模型-朴素贝叶斯分类器-概率图结构
  • 从概率图结构的复杂程度角度观察,可以将其划分为:

    • 浅层模型( Shallow Model \text{Shallow Model} Shallow Model): 这里的浅层模型是指没有产生随机变量堆叠的现象。也就是说,没有构建新的随机变量去对原有设定的随机变量进行表示。上述所有介绍的模型均属于浅层模型
      虽然 Sigmoid \text{Sigmoid} Sigmoid信念网络也存在‘层级现象’,但这种层级现象中的隐变量结点也不属于深度生成模型。
      例如:动态模型如隐马尔可夫模型,虽然它的随机变量结点是基于时间、空间角度无限延伸的,但它同样也是浅层模型。
      浅层模型随机变量结点内部关联关系角度观察,浅层结点内部结点之间关联关系是高度固化的,或者说是稀疏( Sparse \text{Sparse} Sparse)的。
      依然使用‘隐马尔可夫模型’举例,由于‘齐次马尔可夫假设’与‘观测独立性假设’的约束,某个隐变量结点只能与‘对应状态的观测变量、下个状态的隐变量’之间存在因果关系。而与其他结点无关。
    • 深度生成模型( Deep Generative Model \text{Deep Generative Model} Deep Generative Model):这里的深度指的是深度学习。与上面描述相反,其主要特征是 假设新的随机变量对原有假设的随机变量进行表示。具有代表性的模型有深度信念网络( Deep Belief Network,DBN \text{Deep Belief Network,DBN} Deep Belief Network,DBN)
      相反,深度生成模型内部结构中,层与层之间的关联关系是稠密( Dense \text{Dense} Dense)的。
      生成模型-深度信念网络-概率图结构

从概率分布的角度观察生成模型的表示任务

在生成模型综述——生成模型介绍中介绍过,生成模型的关注点均在样本分布自身。那么关于样本分布的概率密度函数 P ( X ) \mathcal P(\mathcal X) P(X)内部的模型参数 θ \theta θ可分为参数化非参数化两种类型:

  • 之前介绍过的绝大多数模型均属于参数化模型( Parameteric Model \text{Parameteric Model} Parameteric Model),可以将模型参数 θ \theta θ看作是未知常量。通过对模型学习得到参数的 解或者是近似解。依然以隐马尔可夫模型为例:
    其中 π \pi π表示初始状态 P ( i 1 ) \mathcal P(i_1) P(i1)的概率分布; A \mathcal A A表示状态转移矩阵; B \mathcal B B表示发射矩阵。 π , a i j , b j ( k ) \pi,a_{ij},b_j(k) π,aij,bj(k)均属于模型参数。
    λ = ( π , A , B ) { π = ( p 1 , p 2 , ⋯   , p K ) K × 1 T ∑ k = 1 K p k = 1 A = [ a i j ] K × K a i j = P ( i t + 1 = q j ∣ i t = q i ) ; i , j ∈ { 1 , 2 , ⋯   , K } B = [ b j ( k ) ] K × M b j ( k ) = P ( o t = v k ∣ i t = q j ) ; j ∈ { 1 , 2 , ⋯   , K } ; k ∈ { 1 , 2 , ⋯   , M } \begin{aligned} & \lambda = (\pi,\mathcal A,\mathcal B) \\ & \begin{cases} \pi = (p_1,p_2,\cdots,p_{\mathcal K})_{\mathcal K \times 1}^T \quad \sum_{k=1}^{\mathcal K} p_k = 1 \\ \mathcal A = [a_{ij}]_{\mathcal K \times \mathcal K} \quad a_{ij} = \mathcal P(i_{t+1} = q_j \mid i_t = q_i);i,j \in \{1,2,\cdots,\mathcal K\} \\ \mathcal B = [b_j(k)]_{\mathcal K \times \mathcal M} \quad b_j(k) = \mathcal P(o_t = v_k \mid i_t = q_j);j \in \{1,2,\cdots,\mathcal K\};k \in \{1,2,\cdots,\mathcal M\} \end{cases} \end{aligned} λ=(π,A,B) π=(p1,p2,,pK)K×1Tk=1Kpk=1A=[aij]K×Kaij=P(it+1=qjit=qi);i,j{1,2,,K}B=[bj(k)]K×Mbj(k)=P(ot=vkit=qj);j{1,2,,K};k{1,2,,M}
    再例如玻尔兹曼机( Boltzmann Machine,BM \text{Boltzmann Machine,BM} Boltzmann Machine,BM),它的概率密度函数可表示为:
    P ( v , h ) = 1 Z exp ⁡ { − E ( v , h ) } = 1 Z exp ⁡ [ v T W ⋅ h + 1 2 v T L ⋅ v + 1 2 h T J ⋅ h ] \begin{aligned} \mathcal P(v,h) & = \frac{1}{\mathcal Z} \exp \{-\mathbb E(v,h)\} \\ & = \frac{1}{\mathcal Z} \exp \left[v^T \mathcal W \cdot h + \frac{1}{2} v^T \mathcal L \cdot v + \frac{1}{2}h^T \mathcal J \cdot h\right] \end{aligned} P(v,h)=Z1exp{E(v,h)}=Z1exp[vTWh+21vTLv+21hTJh]
    对应需要学习的模型参数可表示为:
    其中 W , L , J \mathcal W,\mathcal L,\mathcal J W,L,J均以矩阵的形式表示。
    θ = { W , L , J } \theta = \{\mathcal W,\mathcal L,\mathcal J\} θ={W,L,J}

  • 无参数化模型( Non-Parameteric Model \text{Non-Parameteric Model} Non-Parameteric Model)主要有高斯过程( Gaussian Process,GP \text{Gaussian Process,GP} Gaussian Process,GP),由于高斯过程在连续域 T \mathcal T T内的任意一个时刻均服从高斯分布,因而可以理解为它的模型参数是无限的:
    后续尝试介绍‘狄利克雷过程’~
    ξ t i ∼ N ( μ t i , Σ t i ) t i ∈ T \xi_{t_i} \sim \mathcal N(\mu_{t_i},\Sigma_{t_i}) \quad t_i \in \mathcal T ξtiN(μti,Σti)tiT

除去参数的角度,从是否直接通过关注样本自身分布 P ( X ) \mathcal P(\mathcal X) P(X)对生成模型进行划分:

  • 显式概率密度思想( Explict Density \text{Explict Density} Explict Density):无论是包含隐变量的生成模型如高斯混合模型
    P ( X ) = ∑ Z P ( X , Z ) = ∑ Z P ( Z ) ⋅ P ( X ∣ Z ) = ∑ k = 1 K p k ⋅ N ( μ k , Σ k ) ∑ k = 1 K p k = 1 \begin{aligned} \mathcal P(\mathcal X) & = \sum_{\mathcal Z} \mathcal P(\mathcal X,\mathcal Z) \\ & = \sum_{\mathcal Z} \mathcal P(\mathcal Z) \cdot \mathcal P(\mathcal X \mid \mathcal Z) \\ & = \sum_{k=1}^{\mathcal K} p_k \cdot \mathcal N(\mu_{k},\Sigma_{k}) \quad \sum_{k=1}^{\mathcal K} p_k = 1 \end{aligned} P(X)=ZP(X,Z)=ZP(Z)P(XZ)=k=1KpkN(μk,Σk)k=1Kpk=1
    还是完全观测变量模型如朴素贝叶斯分类器

    • 需要注意的是,由于是监督学习任务,因此这里的 X , Y \mathcal X,\mathcal Y X,Y均属于观测变量。因而这里观测变量的概率密度函数是 P ( X , Y ) \mathcal P(\mathcal X,\mathcal Y) P(X,Y)。以二分类为例:
    • 第一次转换使用‘贝叶斯定理’ P ( Y ∣ X ) = P ( X , Y ) P ( X ) \mathcal P(\mathcal Y \mid \mathcal X) = \frac{\mathcal P(\mathcal X,\mathcal Y)}{\mathcal P(\mathcal X)} P(YX)=P(X)P(X,Y)由于 P ( X ) = ∫ Y P ( X , Y ) d Y \mathcal P(\mathcal X) = \int_{\mathcal Y}\mathcal P(\mathcal X,\mathcal Y) d\mathcal Y P(X)=YP(X,Y)dY Y \mathcal Y Y无关,被视作常量。因而有: P ( Y ∣ X ) ∝ P ( X , Y ) \mathcal P(\mathcal Y \mid \mathcal X) \propto \mathcal P(\mathcal X,\mathcal Y) P(YX)P(X,Y).
      P ( Y = 0 ∣ X ) ⇔ ? P ( Y = 1 ∣ X ) ∝ P ( X , Y = 0 ) ⇔ ? P ( X , Y = 1 ) ⇒ P ( Y = 1 ) ⋅ P ( X ∣ Y = 1 ) ⇔ ? P ( Y = 0 ) ⋅ P ( X ∣ Y = 0 ) \begin{aligned} & \quad \mathcal P(\mathcal Y = 0 \mid \mathcal X) \overset{\text{?}}{\Leftrightarrow} \mathcal P(\mathcal Y =1 \mid \mathcal X) \\ & \propto \mathcal P(\mathcal X,\mathcal Y = 0) \overset{\text{?}}{\Leftrightarrow} \mathcal P(\mathcal X,\mathcal Y = 1) \\ & \Rightarrow \mathcal P(\mathcal Y = 1) \cdot \mathcal P(\mathcal X \mid \mathcal Y = 1) \overset{\text{?}}{\Leftrightarrow} \mathcal P(\mathcal Y = 0) \cdot \mathcal P(\mathcal X \mid \mathcal Y = 0) \end{aligned} P(Y=0X)?P(Y=1X)P(X,Y=0)?P(X,Y=1)P(Y=1)P(XY=1)?P(Y=0)P(XY=0)

    它们都属于对样本自身的概率密度函数进行建模。

  • 隐式概率密度思想( Implict Density \text{Implict Density} Implict Density):相比之下,这种思路在建模的过程中,并不直接考虑样本自身分布 P ( X ) \mathcal P(\mathcal X) P(X)。例如样本生成任务中,目标是生成与 P ( X ) \mathcal P(\mathcal X) P(X)相似的幻想粒子,但并不是完全得到 P ( X ) \mathcal P(\mathcal X) P(X)之后才能生成,即便是不知道,也可以生成。例如生成对抗网络( Generative Adversarial Networks,GAN \text{Generative Adversarial Networks,GAN} Generative Adversarial Networks,GAN)中的生成器部分:
    很明显,生成对抗网络将样本自身概率分布 P ( X ) \mathcal P(\mathcal X) P(X)视作一个复杂函数,使用神经网络的通用逼近定理完成。其输入 Z \mathcal Z Z仅是一个简单分布,而该函数描述的是关于 X \mathcal X X的后验概率 P ( X ∣ Z ) \mathcal P(\mathcal X \mid \mathcal Z) P(XZ).
    X = G ( Z , θ g e n e ) ⇒ P ( X ∣ Z ) \mathcal X = \mathcal G(\mathcal Z,\theta_{gene}) \Rightarrow \mathcal P(\mathcal X \mid \mathcal Z) X=G(Z,θgene)P(XZ)

生成模型的推断任务

关于生成模型推断任务,可以划分为:

  • 容易求解( Tractable \text{Tractable} Tractable)的。例如受限玻尔兹曼机的随机变量后验概率的推断任务:
    既然是推断任务,模型内部参数均已确定。其中 w l i w_{li} wli表示隐变量 h l h_l hl和观测变量 v i v_i vi的权重信息; c l c_l cl表示偏置信息。
    P ( h l ∣ v ) = { Sigmoid ( ∑ i = 1 n W l i ⋅ v i + c l ) h l = 1 1 − Sigmoid ( ∑ i = 1 n W l i ⋅ v i + c l ) h l = 0 \mathcal P(h_l \mid v) =\begin{cases} \text{Sigmoid}(\sum_{i=1}^n \mathcal W_{li} \cdot v_i + c_l) \quad h_l = 1 \\ 1 - \text{Sigmoid}(\sum_{i=1}^n \mathcal W_{li} \cdot v_i + c_l) \quad h_l = 0 \end{cases} P(hlv)={Sigmoid(i=1nWlivi+cl)hl=11Sigmoid(i=1nWlivi+cl)hl=0
    由于受限玻尔兹曼机的特殊结构假设,可以通过 Sigmoid \text{Sigmoid} Sigmoid函数准确描述变量的后验信息
  • 难求解,计算代价极大( Intractable \text{Intractable} Intractable)的。如积分难问题:
    P ( X ) = ∫ Z P ( X , Z ) d Z = ∫ Z P ( X ∣ Z ) ⋅ P ( Z ) d Z = ∫ z 1 ⋯ ∫ z K P ( X ∣ Z ) ⋅ P ( Z ) d z 1 , ⋯   , z K \begin{aligned} \mathcal P(\mathcal X) & = \int_{\mathcal Z} \mathcal P(\mathcal X,\mathcal Z) d\mathcal Z \\ & = \int_{\mathcal Z} \mathcal P(\mathcal X \mid \mathcal Z) \cdot \mathcal P(\mathcal Z) d\mathcal Z \\ & = \int_{z_1}\cdots\int_{z_{\mathcal K}} \mathcal P(\mathcal X \mid \mathcal Z) \cdot \mathcal P(\mathcal Z) dz_1,\cdots,z_{\mathcal K} \end{aligned} P(X)=ZP(X,Z)dZ=ZP(XZ)P(Z)dZ=z1zKP(XZ)P(Z)dz1,,zK

生成模型的学习任务

关于生成模型参数的学习任务主要使用极大似然估计( Maximum Likelihood Estimate,MLE \text{Maximum Likelihood Estimate,MLE} Maximum Likelihood Estimate,MLE)。因而可划分为:

  • 基于极大似然估计的模型( Likelihood-based Model \text{Likelihood-based Model} Likelihood-based Model):实际上,绝大多数模型均使用的极大似然估计方法。如以受限玻尔兹曼机为代表的能量模型( Energy Model \text{Energy Model} Energy Model)
    能量模型参数的学习思想是:基于极大似然估计,求解能量模型的对数似然梯度,最后使用‘梯度上升法’进行近似求解。
    log ⁡ P ( v ; θ ) = log ⁡ [ 1 Z ∑ h exp ⁡ { − E [ h , v ] } ] = log ⁡ [ ∑ h exp ⁡ { − E [ h , v ] } ] − log ⁡ [ ∑ h , v exp ⁡ { − E [ h , v ] } ] ∇ θ [ log ⁡ P ( v ; θ ) ] = ∑ h ( i ) , v ( i ) { P ( h ( i ) , v ( i ) ) ⋅ ∂ ∂ θ [ E ( h ( i ) , v ( i ) ) ] } − ∑ h ( i ) { P ( h ( i ) ∣ v ( i ) ) ⋅ ∂ ∂ θ [ E ( h ( i ) , v ( i ) ) ] } θ ( t + 1 ) ⇐ θ ( t ) + η ⋅ 1 N ∑ v ∈ V ∇ θ [ log ⁡ P ( v ; θ ) ] \begin{aligned} \log \mathcal P(v;\theta) & = \log \left[\frac{1}{\mathcal Z} \sum_{h} \exp \{- \mathbb E[h,v]\}\right] \\ & = \log \left[\sum_{h} \exp \{-\mathbb E[h,v]\}\right] - \log \left[\sum_{h,v} \exp \{-\mathbb E[h,v]\}\right] \\ \nabla_{\theta} \left[\log \mathcal P(v;\theta)\right] & = \sum_{h^{(i)},v^{(i)}} \left\{\mathcal P(h^{(i)},v^{(i)}) \cdot \frac{\partial}{\partial \theta} \left[\mathbb E(h^{(i)},v^{(i)})\right]\right\} - \sum_{h^{(i)}} \left\{\mathcal P(h^{(i)} \mid v^{(i)}) \cdot \frac{\partial}{\partial \theta} \left[\mathbb E(h^{(i)},v^{(i)})\right]\right\} \\ \theta^{(t+1)} & \Leftarrow \theta^{(t)} + \eta \cdot \frac{1}{N} \sum_{v \in \mathcal V}\nabla_{\theta} \left[\log \mathcal P(v;\theta)\right] \end{aligned} logP(v;θ)θ[logP(v;θ)]θ(t+1)=log[Z1hexp{E[h,v]}]=log[hexp{E[h,v]}]log h,vexp{E[h,v]} =h(i),v(i){P(h(i),v(i))θ[E(h(i),v(i))]}h(i){P(h(i)v(i))θ[E(h(i),v(i))]}θ(t)+ηN1vVθ[logP(v;θ)]
  • 极大似然估计无关的模型( Likelihood-free Model \text{Likelihood-free Model} Likelihood-free Model):最典型的模型依然是生成对抗网络。它使用的是对抗学习思路:
    它对判别模型 D ( X ; θ d ) \mathcal D(\mathcal X;\theta_d) D(X;θd)进行建模,其策略可表示为:
    min ⁡ G max ⁡ D { E x ∼ P d a t a [ log ⁡ D ( x ; θ d ) ] + E Z ∼ P ( Z ) [ log ⁡ { 1 − D [ G ( Z ; θ g e n e ) ; θ d ] } ] } \mathop{\min}\limits_{\mathcal G} \mathop{\max}\limits_{\mathcal D} \{\mathbb E_{x \sim \mathcal P_{data}} \left[\log \mathcal D(x;\theta_d)\right] + \mathbb E_{\mathcal Z \sim \mathcal P(\mathcal Z)} \left[\log \{1 - \mathcal D[\mathcal G(\mathcal Z;\theta_{gene});\theta_d]\}\right]\} GminDmax{ExPdata[logD(x;θd)]+EZP(Z)[log{1D[G(Z;θgene);θd]}]}

至此,关于生成模型从表示、推断、学习三个任务的区别介绍结束。

相关参考:
生成模型3-表示&推断&学习

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/335947.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

概率论面试题1:玫瑰花

概率论面试题 1. 一个活动,n个女生手里拿着长短不一的玫瑰花,无序的排成一排,一个男生从头走到尾,试图拿更长的玫瑰花,一旦拿了一朵就不能再拿其他的,错过了就不能回头,问最好的策略&#xff1…

3年自动化测试这水平?我还不如去招应届生

公司前段缺人,也面了不少测试,结果竟然没有一个合适的。一开始瞄准的就是中级的水准,也没指望来大牛,提供的薪资在10-20k,面试的人很多,但平均水平很让人失望。看简历很多都是3年工作经验,但面试…

什么是响应性?

响应性: 这个术语在今天的各种编程讨论中经常出现,但人们说它的时候究竟是想表达什么意思呢?本质上,响应性是一种可以使我们声明式地处理变化的编程范式。一个经常被拿来当作典型例子的用例即是 Excel 表格: 这里单元…

angular相关知识点总结

创建 angualr 组件和传值 angular组件其实就是个xxx.component.ts,本质还是ts文件一个html文件 1.创建组件:在Angular中,可以使用命令行工具ng generate component创建一个新组件。例如: ng generate component my-component这将创建一个名…

Ubuntu 系统下Docker安装与使用

Ubuntu 系统下Docker安装与使用Docker安装与使用Docker安装安装环境准备工作系统要求卸载旧版本Ubuntu 14.04 可选内核模块Ubuntu 16.04 使用 APT 安装安装 Docker CE使用脚本自动安装启动 Docker CE建立 docker 用户组测试 Docker 是否安装正确镜像加速Docker使用拉取镜像创建…

SPSS数据分析软件的安装与介绍(附网盘链接)

🤵‍♂️ 个人主页:艾派森的个人主页 ✍🏻作者简介:Python学习者 🐋 希望大家多多支持,我们一起进步!😄 如果文章对你有帮助的话, 欢迎评论 💬点赞&#x1f4…

SAP COPA 获利能力分析深度解析

一、获利分析配置及相关值概述 二、配置:组织结构 2.1 定义经营范围-KEP8 2.2 维护经营关注点-KEA0 2.3 获利能力分析类型解析 2.4 控制范围分配给经营范围-KEKK 三、配置:数据结构-KEA0 3.1 特征字段 3.1.1 特征字段类别 3.1.2 维护特征字段-K…

分类预测 | Matlab实现SSA-RF和RF麻雀算法优化随机森林和随机森林多特征分类预测

分类预测 |Matlab实现SSA-RF和RF麻雀算法优化随机森林和随机森林多特征分类预测 目录分类预测 |Matlab实现SSA-RF和RF麻雀算法优化随机森林和随机森林多特征分类预测分类效果基本介绍模型描述程序设计参考资料分类效果 基本介绍 Matlab实现SSA-RF和RF麻雀算法优化随机森林和随机…

C++学习笔记(四)

组合、继承。委托(类与类之间的关系) 复合 queue类里有一个deque,那么他们的关系叫做复合。右上角的图表明复合的概念。上图的特例表明,queue中的功能都是通过调用c进行实现(adapter)。 复合关系下的构造和…

CS5260测试版|CS5260demoboard|typec转VGA参考PCB原理图

CS5260测试版|CS5260demoboard|typec转VGA参考PCB原理图 CS5260是一款高度集成的TYPEC转VGA转换方案芯片。 CS5260输出端接口:外接高清VGA设备如:显示器投影机电视带高清的设备,广泛应用于 笔记本Macbook Air 12寸USB3.1输出端对外接高清VGA设备如:显示器投影机电视…

11.hadoop系列之MapReduce框架原理之InputFormat数据输入

我们先简要了解下InputFormat输入数据 1.数据块与数据切片 数据块: Block在HDFS物理上数据分块,默认128M。数据块是HDFS存储数据单位 数据切片: 数据切片只是在逻辑上对输入进行分片,并不会物理上切片存储。数据切片是MapReduce…

儿童书写台灯哪个牌子比较好?2023儿童护眼台灯分享

现在儿童的近视率高达52.7%,有科技水平的提高和电子产品的普及,近视率逐年攀升,出现低龄化现象,调查结果显示,其中6岁儿童达到14.3%,小学生为35.6%。初中生71.1%,高中生高达80.5%,可…

go语言rpc,grpc介绍

目录rpcRPC调用net/rpcRPC over HTTP 和 RESTfulserverclientRPC over TCP 和 RESTfulserverclient序列化/反序列化协议json序列化serverclientpython调用rpcRPC原理rpc框架比较grpcwhy gRpcgRPC与Protobuf介绍安装gRPC和Protobuf检查gRPC的开发方式编写proto代码编写Server端G…

Linux -文件系统操作与帮助命令

1、Linux -文件系统操作 df — 查看磁盘的容量 df -h —以人类可以看懂的方式显示磁盘的容量,易读 du 命令查看目录的容量 # 默认同样以块的大小展示 du # 加上 -h 参数,以更易读的方式展示 du -h-d 参数指定查看目录的深度: # 只查看 1…

开发了一款基于 Flask 框架的在线电影网站系统(附 Python 源码)

文章目录前言项目介绍源码获取运行环境安装依赖库项目截图首页展示图视频展示页视频播放页后台管理页整体架构设计图项目目录结构图前台功能模块图后台功能模块图本地运行图前言 今天我给大家分享的是基于 Python 的 Flask 框架开发的在线电影网站系统,大家平时需要…

秒杀商品展示及商品秒杀

目录一、登录方式调整二、生成秒杀订单1、绑定秒杀商品2、查看秒杀商品3、订单秒杀①移除seata相关②生成秒杀订单③前端页面秒杀测试一、登录方式调整 第1步:从zmall-common的pom.xml中移除spring-session-data-redis依赖 注意: 1)本章节中…

RocketMQ Broker消息处理流程及部分源码解析

🍊 Java学习:Java从入门到精通总结 🍊 深入浅出RocketMQ设计思想:深入浅出RocketMQ设计思想 🍊 绝对不一样的职场干货:大厂最佳实践经验指南 📆 最近更新:2023年2月10日 &#x…

wait 和 notify

由于线程之间是抢占式执行的, 因此线程之间执行的先后顺序难以预知.但是实际开发中有时候我们希望合理的协调多个线程之间的执行先后顺序. wait() / wait(long timeout): 让当前线程进入等待状态.notify() / notifyAll(): 唤醒在当前对象上等待的线程. 注意: wait, notify,…

ChatGPT大火,你被这四种手段“割韭菜”了嘛?

目录 黑灰产利用ChatGPT的牟利方式 1、贩卖ChatGPT账号 2、售卖ChatGPT注册工具 3、制作山寨版ChatGPT 4、制作ChatGPT教程 ChatGPT对业务安全的帮助 提升漏洞挖掘的广度和精度 提升业务安全情报的效率和广度 ChatGPT自身的安全隐患 2022年11月,ChatGPT发布时&#…

FastJson序列化和反序列化时处理数据

FastJson序列化和反序列化时处理数据序列化时处理数据反序列化时处理json数据中的值https://github.com/alibaba/fastjson/wiki/PropertyProcessable_cn https://www.cnblogs.com/ariter/p/14254342.html 序列化时处理数据 1、自定义注解用来标识json数据需要处理的属性 impo…