【一起啃书】《机器学习》第七章 贝叶斯分类器

news2025/1/31 8:06:12

文章目录

      • 第七章 贝叶斯分类器
        • 7.1 贝叶斯决策论
        • 7.2 极大似然估计
        • 7.3 朴素贝叶斯分类器
        • 7.4 半朴素贝叶斯分类器
        • 7.5 贝叶斯网
        • 7.6 EM算法

第七章 贝叶斯分类器

7.1 贝叶斯决策论

  对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记,假设有 N N N中可能的类别标记,即 y = { c 1 , c 2 , . . . , c N } y = \{ {c_1},{c_2},...,{c_N}\} y={c1,c2,...,cN} λ i j {\lambda _{ij}} λij是将一个真实标记为 c j c_j cj的样本误分类为 c i c_i ci所产生的损失,基于后验概率 P ( c i ∣ x ) P({c_i}|{\bf{x}}) P(cix)可获得将样本 x \bf{x} x分类为 c i c_i ci所产生的期望损失,即在样本 x \bf{x} x上的“条件风险”:
R ( c i ∣ x ) = ∑ j = 1 N λ i j P ( c j ∣ x ) R({c_i}|{\bf{x}}) = \sum\limits_{j = 1}^N {{\lambda _{ij}}P({c_j}|{\bf{x}})} R(cix)=j=1NλijP(cjx)
  我们的任务是寻找一个判定准则 h : x ↦ y h:x \mapsto y h:xy以最小化总体风险:
R ( h ) = E x [ R ( h ( x ) ∣ x ) ] R(h) = {\mathbb{E}_{\bf{x}}}[R(h({\bf{x}})|{\bf{x}})] R(h)=Ex[R(h(x)x)]
  显然,对每个样本 x \bf{x} x,若 h h h能最小化条件风险 R ( h ( x ) ∣ x ) R(h({\bf{x}})|{\bf{x}}) R(h(x)x),则总体风险 R ( h ) R(h) R(h)也将被最小化,这就产生了贝叶斯判定准则:为最小化总体风险,只需在每个样本上选择那个能使条件风险 R ( c ∣ x ) R(c|\bf{x}) R(cx)最小的类别标记,即
h ∗ ( x ) = arg ⁡ min ⁡ c ∈ y R ( c ∣ x ) {h^*}({\bf{x}}) = \mathop {\arg \min }\limits_{c \in y} R(c|{\bf{x}}) h(x)=cyargminR(cx)
  此时, h ∗ h^* h称为贝叶斯最优分类器,与之对应的 R ( h ∗ ) R(h^*) R(h)称为贝叶斯风险, 1 − R ( h ∗ ) 1-R(h^*) 1R(h)反映了分类器所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。

  不难看出,欲使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率 P ( c ∣ x ) P(c|\bf{x}) P(cx),然而在现实任务中这通常难以直接获得,所以机器学习所要实现的是基于有限的训练样本集尽可能准确地估计出后验概率 P ( c ∣ x ) P(c|\bf{x}) P(cx),目前共有以下两种策略:

  • 判别式模型:给定 x \bf{x} x,可通过直接建模 P ( c ∣ x ) P(c|\bf{x}) P(cx)来预测 c c c
  • 生成式模式:先对联合概率分布 P ( x , c ) P(\bf{x},c) P(x,c)建模,然后再由此获得 P ( c ∣ x ) P(c|\bf{x}) P(cx)

P ( c ∣ x ) = P ( x , c ) P ( x ) = P ( c ) P ( x ∣ c ) P ( x ) P(c|{\bf{x}}) = \frac{{P({\bf{x}},c)}}{{P({\bf{x}})}} = \frac{{P(c)P({\bf{x}}|c)}}{{P({\bf{x}})}} P(cx)=P(x)P(x,c)=P(x)P(c)P(xc)

  其中 P ( c ) P(c) P(c)是类“先验”概率, P ( x ∣ c ) P(\bf{x}|c) P(x∣c)是样本 x \bf{x} x相对于类标记 c c c的类条件概率(也叫“似然”), P ( x ) P(\bf{x}) P(x)是用于归一化的“证据”因子。对于给定的样本 x \bf{x} x,证据因子 P ( x ) P(\bf{x}) P(x)与类标记无关,因此估计 P ( c ∣ x ) P(c|\bf{x}) P(cx)的问题就转化为如何基于训练数据 D D D来估计先验 P ( c ) P(c) P(c)和似然 P ( x ∣ c ) P(\bf{x}|c) P(x∣c)

  类先验概率 P ( c ) P(c) P(c)表达了样本空间中各类样本所占的比例,根据大数定律,当训练集包含充足的独立同分布样本时, P ( c ) P(c) P(c)可通过各类样本出现的概率来进行估计。

  对类条件概率 P ( x ∣ c ) P(\bf{x}|c) P(x∣c)来说,由于它涉及关于 x \bf{x} x所有属性的联合概率,直接根据样本出现的概率来估计将会遇到严重的困难。

  • 先验概率:在没有观察到新信息之前,对某个事件或参数的主观概率估计。
  • 后验概率:在观察到新信息之后,对某个事件或参数的概率重新估计。
  • 似然:在某个事件或参数已知的情况下,观察到新信息的概率。

7.2 极大似然估计

  估计类条件概率的一种常用策略是先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计,假设 P ( x ∣ c ) P(\bf{x}|c) P(x∣c)具有确定的形式并且被参数向量 θ c \theta_c θc唯一确定,那么需要用训练集 D D D来估计参数 θ c \theta_c θc

  下面先介绍统计学界两个学派对于参数估计的看法:

  • 频率主义学派:参数未知,但是客观存在的固定值,可通过优化似然函数等准则来确定参数值,这也形成了统计学习。
  • 贝叶斯学派:参数是未观察到的随机变量,其本身也有分布,可假定参数服从一个先验分布,然后基于观测到的数据来计算参数的后验分布,这也形成了贝叶斯学习。

  下面来介绍源于频率主义学派的极大似然估计,令 D c D_c Dc表示训练集 D D D中第 c c c类样本组成的集合,假设这些样本是独立同分布的,则参数 θ c \theta_c θc对于数据集 D c D_c Dc的似然是
P ( D c ∣ θ c ) = ∏ x ∈ D c P ( x ∣ θ c ) P({D_c}|{\theta _c}) = \prod\limits_{{\bf{x}} \in {D_c}} {P({\bf{x}}|{\theta _c})} P(Dcθc)=xDcP(xθc)
  考虑到连乘操作易造成下溢(小实值连乘),通常使用对数似然,如下所示
L L ( θ c ) = log ⁡ P ( D c ∣ θ c ) = ∑ x ∈ D c log ⁡ P ( x ∣ θ c ) LL({\theta _c}) = \log P({D_c}|{\theta _c}) = \sum\limits_{{\bf{x}} \in {D_c}} {\log P({\bf{x}}|{\theta _c})} LL(θc)=logP(Dcθc)=xDclogP(xθc)
  这样对 θ c \theta_c θc进行极大似然估计,寻找到能最大化似然 P ( D c ∣ θ c ) P(D_c|\theta_c) P(Dcθc)的参数值 θ ^ c \hat{\theta}_c θ^c,如下所示
θ ^ c = arg ⁡ max ⁡ θ c L L ( θ c ) {\hat\theta _c} = \mathop {\arg \max }\limits_{{\theta _c}} LL({\theta _c}) θ^c=θcargmaxLL(θc)
  下面对极大似然举个例子

7.3 朴素贝叶斯分类器

  基于贝叶斯公式来估计后验概率的主要困难在于:类条件概率是所有属性上的联合概率,难以从有限的训练样本直接估计而得;而且基于有限训练样本直接估计联合概率,在计算上将会遭遇组合爆炸问题,在数据上将会遭遇样本稀疏问题(属性数越多,问题越严重)。

  为避开这个障碍,朴素贝叶斯分类器采用了“属性条件独立性假设”:对已知类别,假设所有属性相互独立,也就是假设每个属性独立地对分类结果发生影响,如下所示,其中 d d d为属性数目, x i x_i xi x \bf{x} x在第 i i i个属性上的取值。
P ( c ∣ x ) = P ( c ) P ( x ∣ c ) P ( x ) = P ( c ) P ( x ) ∏ i = 1 d P ( x i ∣ c ) P(c|{\bf{x}}) = \frac{{P(c)P({\bf{x}}|c)}}{{P({\bf{x}})}} = \frac{{P(c)}}{{P({\bf{x}})}}\prod\limits_{i = 1}^d {P({{x}_i}|c)} P(cx)=P(x)P(c)P(xc)=P(x)P(c)i=1dP(xic)
  贝叶斯判定准则如下所示
h n b ( x ) = arg ⁡ max ⁡ c ∈ y P ( c ) ∏ i = 1 d P ( x i ∣ c ) {h_{nb}}({\bf{x}}) = \mathop {\arg \max }\limits_{c \in y} P(c)\prod\limits_{i = 1}^d {P({x_i}|c)} hnb(x)=cyargmaxP(c)i=1dP(xic)
  令 D c D_c Dc表示训练集 D D D中第 c c c类样本组成的集合,若有充足的独立同分布样本,则可容易地估计出类先验概率 P ( c ) = ∣ D c ∣ ∣ D ∣ P(c) = \frac{{\left| {{D_c}} \right|}}{{\left| D \right|}} P(c)=DDc

  对离散属性而言,令 D c , x i D_{c,x_i} Dc,xi表示 D c D_c Dc中在第 i i i个属性上取值为 x i x_i xi的样本组成的集合,则条件概率 P ( x i ∣ c ) P(x_i|c) P(xic)可估计为
P ( x i ∣ c ) = ∣ D c , x i ∣ ∣ D c ∣ P({x_i}|c) = \frac{{\left| {{D_{c,{x_i}}}} \right|}}{{\left| {{D_c}} \right|}} P(xic)=DcDc,xi
  对连续属性可考虑概率密度函数,假定 p ( x i ∣ c ) ∼ N ( μ c , i , σ c , i 2 ) p({x_i}|c) \sim N({\mu _{c,i}},\sigma _{c,i}^2) p(xic)N(μc,i,σc,i2),其中 μ c , i \mu _{c,i} μc,i σ c , i 2 \sigma _{c,i}^2 σc,i2分别是第 c c c类样本在第 i i i个属性上取值的均值和方差,则有
p ( x i ∣ c ) = 1 2 π σ c , i exp ⁡ ( − ( x i − μ c , i ) 2 2 σ c , i 2 ) p({x_i}|c) = \frac{1}{{\sqrt {2\pi } {\sigma _{c,i}}}}\exp ( - \frac{{{{({x_i} - {\mu _{c,i}})}^2}}}{{2\sigma _{c,i}^2}}) p(xic)=2π σc,i1exp(2σc,i2(xiμc,i)2)
  下面对朴素贝叶斯分类器举个例子

7.4 半朴素贝叶斯分类器

  半朴素贝叶斯分类器的基本想法是适当考虑一部分属性间的相互依赖信息,从而既不需进行完全联合概率计算,又不至于彻底忽略了比较强的属性依赖关系。“独依赖估计”是半朴素贝叶斯分类器最常用的一种策略,假设每个属性在类别之外最多仅依赖于一个其他属性,即
P ( c ∣ x ) ∝ P ( c ) ∏ i = 1 d P ( x i ∣ c , p a i ) P(c|{\bf{x}}) \propto P(c)\prod\limits_{i = 1}^d {P({x_i}|c,p{a_i})} P(cx)P(c)i=1dP(xic,pai)
  其中 p a i pa_i pai为属性 x i x_i xi所依赖的属性,称为 x i x_i xi的父属性,为了确定每个属性的父属性,最直接的做法是假设所有属性都依赖于同一个属性,称为“超父”,然后通过交叉验证等模型选择方法来确定超父属性。

7.5 贝叶斯网

  贝叶斯网借助有向无环图来刻画属性之间的依赖关系,并使用条件概率表来描述属性的联合概率分布。具体来说,一个贝叶斯网 B B B由结构 G G G和参数 Θ \Theta Θ两部分构成,即 B = ⟨ G , Θ ⟩ B = \left\langle {G,\Theta } \right\rangle B=G,Θ。网络结构 G G G是一个有向无环图,其每个结点对应于一个属性,若两个属性有直接依赖关系,则它们由一条边连接起来;参数 Θ \Theta Θ定量描述这种依赖关系,假设属性 x i x_i xi G G G中的父结点集为 π i {\pi _i} πi,则 Θ \Theta Θ包含了每个属性的条件概率表 θ x i ∣ π i = P B ( x i ∣ π i ) {\theta _{{x_i}|\pi {}_i}} = {P_B}({x_i}|{\pi _i}) θxiπi=PB(xiπi)

  下面举例说明一下贝叶斯网,如下图所示,“色泽”直接依赖于“好瓜”和“甜度”,而“根蒂”则直接依赖于“甜度”,进一步可以从条件概率表中得到“根蒂”对“甜度”的量化依赖关系,如 P P P(根蒂=硬挺|甜度=高)=0.1等。

(1)结构

  贝叶斯网结构有效地表达了属性间的条件独立性,给定父结点集,贝叶斯网假设每个属性与它的非后裔属性独立,于是 B = ⟨ G , Θ ⟩ B = \left\langle {G,\Theta } \right\rangle B=G,Θ将属性 x i , x 2 , . . . , x d x_i,x_2,...,x_d xi,x2,...,xd的联合概率分布定义为
P B ( x 1 , x 2 , . . . , x d ) = ∏ i = 1 d P B ( x i ∣ π i ) = ∏ i = 1 d θ x i ∣ π i {P_B}({x_1},{x_2},...,{x_d}) = \prod\limits_{i = 1}^d {{P_B}({x_i}|{\pi _i})} = \prod\limits_{i = 1}^d {{\theta _{{x_i}|{\pi _i}}}} PB(x1,x2,...,xd)=i=1dPB(xiπi)=i=1dθxiπi
  下图给出了贝叶斯网中三个变量之间的典型依赖关系,在“同父”结构中,给定父结点 x 1 x_1 x1的取值,则 x 3 x_3 x3 x 4 x_4 x4条件独立;在“顺序”结构中,给定 x x x的值,则 y y y z z z条件独立; V V V型结构又叫“冲撞”结构,给定子结点 x 4 x_4 x4的取值, x 1 x_1 x1 x 2 x_2 x2必不独立,而若 x 4 x_4 x4的取值完全未知,则 V V V型结构下 x 1 x_1 x1 x 2 x_2 x2却是相互独立的。这样的独立性又叫“边际独立性”。

  为了分析有向图中变量间的条件独立性,可使用“有向分离”:

  • 找出有向图中的所有 V V V型结构,在 V V V型结构的两个父结点之间加上一条有向边。
  • 将所有有向边改为无向边。

(2)学习

  贝叶斯网学习的首要任务就是根据训练数据集来找出结构最“恰当”的贝叶斯网,“评分搜索”是求解这一问题的常用方法,通过定义一个评分函数来评估贝叶斯网与训练数据的契合程度,然后基于这个评分函数来寻找结构最优的贝叶斯网。

  常用评分函数通常基于信息论准则,此类准则将学习问题看作一个数据压缩任务,学习的目标是找到一个能以最短编码长度描述训练数据的模型。对于贝叶斯网学习而言,模型就是一个贝叶斯网,同时,每个贝叶斯网描述了一个在训练数据上的概率分布,自有一套编码机制能使那些经常出现的样本有更短编码,所以我们应该选择那个综合编码长度最短的贝叶斯网,这就是“最小描述长度”准则。

  给定训练集 D = { x 1 , x 2 , . . . , x m } D = \{ {x_1},{x_2},...,{x_m}\} D={x1,x2,...,xm},贝叶斯网 B = ⟨ G , Θ ⟩ B = \left\langle {G,\Theta } \right\rangle B=G,Θ D D D上的评分函数可写为如下所示,其中 ∣ B ∣ \left| B \right| B是贝叶斯网的参数个数, f ( θ ) f(\theta ) f(θ)表示描述每个参数 θ \theta θ所需的编码位数。
s ( B ∣ D ) = f ( θ ) ∣ B ∣ − L L ( B ∣ D ) s(B|D) = f(\theta )\left| B \right| - LL(B|D) s(BD)=f(θ)BLL(BD)
  式中第一项是计算编码贝叶斯网 B B B所需的编码位数,第二项是计算 B B B所对应的概率分布 P B P_B PB D D D描述得有多好。于是,学习任务就转化为一个优化任务,也就是寻找一个贝叶斯网 B B B使评分函数 s ( B ∣ D ) s(B|D) s(BD)最小。

  若 f ( θ ) = 1 f(\theta)=1 f(θ)=1,即每个参数用 1 1 1编码位描述,则得到 A I C AIC AIC评分函数
A I C ( B ∣ D ) = ∣ B ∣ − L L ( B ∣ D ) AIC(B|D) = \left| B \right| - LL(B|D) AIC(BD)=BLL(BD)
  若 f ( θ ) = 1 2 log ⁡ m f(\theta ) = \frac{1}{2}\log m f(θ)=21logm,即每个参数用 1 2 log ⁡ m \frac{1}{2}\log m 21logm编码位描述,则得到 B I C BIC BIC评分函数
B I C ( B ∣ D ) = log ⁡ m 2 ∣ B ∣ − L L ( B ∣ D ) BIC(B|D) = \frac{{\log m}}{2}\left| B \right| - LL(B|D) BIC(BD)=2logmBLL(BD)
  若 f ( θ ) = 0 f(\theta)=0 f(θ)=0,即不计算对网络进行编码的长度,则评分函数退化为负对数似然,相应的,学习任务退化为极大似然估计。

(3)推断

  推断指的是通过已知变量观测值来推测待查询变量的过程,最理想的是直接根据贝叶斯网定义的联合概率分布来精确计算后验概率,但这是一个 N P NP NP难问题,在现实应用中,贝叶斯网的近似推断常用吉布斯采样来完成,这是一种随机采样办法,如下所示。

7.6 EM算法

  现实生活往往会遇到“不完整”的训练样本,例如西瓜的根蒂已脱落,无法看出是“蜷缩”还是“硬挺”。未观测变量的学名是“隐变量”。令 X \bf{X} X表示已观测变量集, Z \bf{Z} Z表示隐变量集, Θ \Theta Θ表示模型参数。若想对 Θ \Theta Θ做极大似然估计,则应最大化对数似然
L L ( Θ ∣ X , Z ) = ln ⁡ P ( X , Z ∣ Θ ) LL(\Theta |{\bf{X}},{\bf{Z}}) = \ln P({\bf{X}},{\bf{Z}}|\Theta ) LL(Θ∣X,Z)=lnP(X,Z∣Θ)
  然而由于 Z \bf{Z} Z是隐变量,上式无法直接求解,此时可以通过对 Z \bf{Z} Z计算期望,来最大化已观测数据的对数“边际似然”
L L ( Θ ∣ X ) = ln ⁡ P ( X ∣ Θ ) = ln ⁡ ∑ Z P ( X , Z ∣ Θ ) LL(\Theta |{\bf{X}}) = \ln P({\bf{X}}|\Theta ) = \ln \sum {_{\bf{Z}}P({\bf{X}},{\bf{Z}}|\Theta )} LL(Θ∣X)=lnP(X∣Θ)=lnZP(X,Z∣Θ)
   E M EM EM算法是常用的估计参数隐变量的利器,它是一种迭代式的方法,其基本想法是:若参数 Θ \Theta Θ已知,则可根据训练数据推断出最优隐变量 Z \bf{Z} Z的值( E E E步);反之,若 Z \bf{Z} Z的值已知,则可方便地对参数 Θ \Theta Θ做极大似然估计( M M M步)。

  于是,以初始值 Θ 0 \Theta^0 Θ0为起点,可迭代执行以下步骤直至收敛:

  • 基于 Θ t \Theta^t Θt推断隐变量 Z \bf{Z} Z的期望,记为 Z t \bf{Z}^t Zt
  • 基于已观测变量 X \bf{X} X Z t \bf{Z}^t Zt对参数 Θ \Theta Θ做极大似然估计,记为 Θ t + 1 \Theta^{t+1} Θt+1

  若我们不是取 Z \bf{Z} Z的期望,而是基于 Θ t \Theta^t Θt计算隐变量 Z \bf{Z} Z的概率分布 P ( Z ∣ X , Θ t ) P({\bf{Z}}|{\bf{X}},{\Theta ^t}) P(ZX,Θt),则 E M EM EM算法的两个步骤是:

  • E E E步:以当前参数 Θ t \Theta^t Θt推断隐变量分布 P ( Z ∣ X , Θ t ) P({\bf{Z}}|{\bf{X}},{\Theta ^t}) P(ZX,Θt),并计算对数似然 L L ( Θ ∣ X , Z ) LL(\Theta |{\bf{X}},{\bf{Z}}) LL(Θ∣X,Z)关于 Z \bf{Z} Z的期望

Q ( Θ ∣ Θ t ) = E Z ∣ X , Θ t L L ( Θ ∣ X , Z ) Q(\Theta |{\Theta ^t}) = {\mathbb{E}_{{\bf{Z}}|{\bf{X}},{\Theta ^t}}}LL(\Theta |{\bf{X}},{\bf{Z}}) Q(Θ∣Θt)=EZX,ΘtLL(Θ∣X,Z)

  • M M M步:寻找参数最大化期望似然,即

Θ t + 1 = arg ⁡ max ⁡ Θ Q ( Θ ∣ Θ t ) {\Theta ^{t + 1}} = \mathop {\arg \max }\limits_\Theta Q(\Theta |{\Theta ^t}) Θt+1=ΘargmaxQ(Θ∣Θt)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/521244.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

k8s学习-CKS真题-利用AppArmor进行应用行为限制

目录 题目环境搭建解题模拟题参考 题目 Task 在 cluster 的工作节点 node02 上,实施位于 /etc/apparmor.d/nginx_apparmor 的现有 APPArmor 配置文件。 编辑位于 /cks/KSSH00401/nginx-deploy.yaml 的现有清单文件以应用 AppArmor 配置文件。 最后,应用清…

UE4及Airsim安装时遇到的问题及解决办法

UE4及Airsim安装时遇到的问题及解决办法 目录 UE4及Airsim安装时遇到的问题及解决办法前言UE4下载慢解决方法 Airsim编译过程中提示:无法打开包括文件: “Eigen/Dense”: No such file or directory [D:\software\Visual_studio2022\2022Community\AirSim\Air解决办…

C语言——运算符和表达式

所谓表达式就是指由运算符、运算量和标点符号组成的有效序列,其目的是说明一个计算过程。表达式可以独立成语句:表达式; 运算符按功能分为:算术运算、赋值运算、关系运算、逻辑运算、位运算以及其他运算符 1. 算术运算符: - * / %…

项目部署 | Linux安装Git和Maven

知识目录 一、写在前面✨二、安装Git💕2.1 yum安装git2.2 新建Git仓库2.3 拉取仓库代码 三、安装Maven💕3.1 上传Maven压缩包并解压3.2 配置环境变量3.3 设置本地仓库3.4 设置中央仓库 四、总结撒花😊 一、写在前面✨ 大家好!我是…

二叉树的递归遍历与迭代遍历(图示)

文章目录 前言1. 二叉树的递归遍历(一入递归深似海,从此offer是路人)1.1 [前序遍历](https://leetcode.cn/problems/binary-tree-preorder-traversal/)1.2 [中序遍历](https://leetcode.cn/problems/binary-tree-inorder-traversal/)1.3 [后序…

实验一 Python基础编程

实验一 Python基础编程 只为给原因学习编程的同学提供一个思路,让编程更简单!!! 本博主擅长整理粉丝的私信!只要你有需求就可以告诉博主!博主可以帮你解决并发表! 一、实验学时 2学时 二、实…

docker发布到dockerhub报错denied: requested access to the resource is denied

docker发布到dockerhub报错denied: requested access to the resource is denied 解决方案 修改发布的镜像的REPOSITORY为自己的账户名镜像,比如我的用户名是luobotoutou123。docker tag tomcat02:1.0 luobotoutou123/tomcat02:1 然后发布镜像 到dockerhub远程仓库…

学习杂记 2023.5.13 单词背诵

目录 鼠标上的DPI是什么? 鼠标上的DPI是什么? DPI是英文Dots Per Inch的缩写,意思是每英寸点数。在计算机中,DPI通常用于描述指针设备(例如鼠标)的精度。在鼠标上,DPI指的是鼠标移动时指针在屏…

[图神经网络]ViG(Vision GNN)网络代码实现

论文解读: [图神经网络]视觉图神经网络ViG(Vision GNN)--论文阅读https://blog.csdn.net/weixin_37878740/article/details/130124772?spm1001.2014.3001.5501代码地址: ViGhttps://github.com/huawei-noah/Efficient-AI-Backbones/tree/master/vig_p…

Hive之DDL

目录 对数据库操作: 创建数据库: 查看数据库信息: 1.查看基本信息: 2.查看详尽信息: 删除数据库: 1.简单语法: 2.复杂语法: 对表操作: 创建表: 1.普…

JVM-内存结构

✅作者简介:热爱Java后端开发的一名学习者,大家可以跟我一起讨论各种问题喔。 🍎个人主页:Hhzzy99 🍊个人信条:坚持就是胜利! 💞当前专栏:JVM 🥭本文内容&…

《程序员的底层思维》读书笔记

人是能够习惯于任何环境的生物,之前你认为自己难以克服的困难,慢慢都会适应了。 维克多弗兰克《活出生命的意义》 文章目录 人是能够习惯于任何环境的生物,之前你认为自己难以克服的困难,慢慢都会适应了。 基础思维能力逻辑思维批…

每日学术速递5.12

CV - 计算机视觉 | ML - 机器学习 | RL - 强化学习 | NLP 自然语言处理 Subjects: cs.CV 1.ImageBind: Holistic AI learning across six modalities 标题:ImageBind:跨六种模式的整体人工智能学习 作者:Mengyuan Yan Jessica Lin Mont…

支付系统设计三:渠道网关设计04-渠道数据补全

文章目录 前言一、交易信息准备1. MessageDescription内容2. 交易信息填充3. 开户机构信息填充4. 省市区域信息填充5. 银行信息填充 二、路由处理三、支付渠道数据补全1.服务端支付渠道获取2. 支付渠道通用数据补全2.1 支付渠道账户信息补全2.1 商户信息补全结束 3. 支付渠道差…

具有噪声标签的鲁棒医学图像分割的点类仿射损失校正

文章目录 Joint Class-Affinity Loss Correction for Robust Medical Image Segmentation with Noisy Labels摘要本文方法Differentiated Affinity Reasoning (DAR)Class-Affinity Loss Correction (CALC)Class-Level Loss CorrectionAffinity-Level Loss CorrectionClass-Affi…

AcWing算法提高课-1.3.4数字组合

宣传一下算法提高课整理 <— CSDN个人主页&#xff1a;更好的阅读体验 <— 本题链接&#xff08;AcWing&#xff09; 点这里 题目描述 给定 N N N 个正整数 A 1 , A 2 , … , A N A_1,A_2,…,A_N A1​,A2​,…,AN​&#xff0c;从中选出若干个数&#xff0c;使它们…

轻松搭建冒险岛服务器-冒险岛私服搭建详细教程

想要拥有一个属于自己的冒险岛世界吗&#xff1f;想要一步步学习如何架设冒险岛服务器吗&#xff1f;本文将从如何选择服务器、安装系统、配置环境、搭建数据库、部署网站、上传文件、启动服务等8个方面&#xff0c;一步步为大家详细讲解冒险岛架设教程。让你轻松打造属于自己的…

sql 性能优化基于explain调优

文章目录 Explain分析&#xff1f;问题描述解决方案 Explain分析&#xff1f; 关于Explain具体可以干什么&#xff0c;有哪些优缺点&#xff0c;本博主的文章有写到&#xff0c;这是链接地址: 点击这里查看. 下面来说下Explain在项目实战中&#xff0c;如何去进行优化。 问题…

7年老人,30岁的测试说辞就辞,“人员优化”4个字,泰裤辣...

前几天&#xff0c;一个认识了好几年在大厂做测试的程序员朋友&#xff0c;年近30了&#xff0c;在公司做了7年了&#xff0c;一直兢兢业业&#xff0c;最后还是却被大厂以“人员优化”的名义无情被辞&#xff0c;据他说&#xff0c;有一个月散伙饭都吃了好几顿…… 在很多企业…

【ChatGPT】国内免费使用ChatGPT镜像

Yan-英杰的主页 悟已往之不谏 知来者之可追 C程序员&#xff0c;2024届电子信息研究生 目录 什么是ChatGPT镜像&#xff1f; 亲测&#xff1a; 一、二狗问答(AI对话) 二、AiDuTu 三、WOChat 四、ChatGPT(个人感觉最好用) 我们可以利用ChatGPT干什么&#xff1f; 一、三分…