马尔可夫链蒙特卡罗算法(MCMC方法)

news2024/10/6 5:53:53

MCMC方法是什么

  • 具体而言,假设我们要计算积分 μ = ∫ S h ( θ ) π ( θ ∣ x ) d θ \mu=\int_Sh(\theta)\pi(\theta|x)d\theta μ=Sh(θ)π(θx)dθ如果后验分布 π ( θ ∣ x ) \pi(\theta|x) π(θx)难以直接抽样,那么我们就可以构造一条马氏链 θ \theta θ,使其状态空间为 S S S且其平稳分布就是 π ( θ ∣ x ) \pi(\theta|x) π(θx),将此马氏链运行一段时间使其收敛于平稳分布后,将产生一系列服从该平稳分布的随机样本 θ 0 , θ 1 , θ 2 , . . . , θ n − 1 \theta_0,\theta_1,\theta_2,...,\theta_{n-1} θ0,θ1,θ2,...,θn1,由该定理可得 μ ≈ 1 n ∑ i = 0 n − 1 h ( θ i ) \mu\approx\frac{1}{n}\sum_{i=0}^{n-1}h(\theta_i) μn1i=0n1h(θi)这种以马尔可夫链生成随机样本,通过蒙特卡罗方法进行积分计算的方法就称为马尔可夫链蒙特卡罗算法,即 M C M C MCMC MCMC方法

为什么需要MCMC方法

  • 在之前的文章中有提到,接受-拒绝采样方法在高维随机变量的情形下很难找到合适的提议分布 q ( x ) q(x) q(x),而 M C M C MCMC MCMC方法正是为了解决这个问题而生。 M C M C MCMC MCMC方法通过马尔可夫链收敛后的平稳分布产生随机样本,随机变量的维度就是马氏链 X X X的维度,因此无论随机变量的维数是多少,只要马尔可夫链能够收敛, M C M C MCMC MCMC方法都可以很好的工作。

MCMC方法中的若干术语

  • 初始值: 初始值被用于初始化一条马氏链
  • 预烧期: M C M C MCMC MCMC方法中用于保证马氏链收敛到平稳分布的运行时间,其迭代次数记为 B B B,只要运行的时间足够长,去除预烧期对后验推断几乎是没有影响的
  • 筛选间隔或抽样步长: 马氏链产生的样本并不是相互独立的,如果需要独立样本,可以通过监视产生样本的自相关图,然后选择筛选间隔或抽样步长 L L L使得步长 L L L以后的样本自相关性很低,可近似为独立样本
  • 迭代保持数: 指提供给贝叶斯分析的实际样本数,其计算公式为 迭代保持数 = 迭代总次数 − 预烧期的迭代次数 迭代保持数=迭代总次数-预烧期的迭代次数 迭代保持数=迭代总次数预烧期的迭代次数如果抽样步长 L > 1 L>1 L>1,则 迭代保持数 = 迭代总次数 − 预烧期的迭代次数 L 迭代保持数=\frac{迭代总次数-预烧期的迭代次数}{L} 迭代保持数=L迭代总次数预烧期的迭代次数
  • 蒙特卡罗误差: 度量了每一个估计因为随机模拟而导致的波动性,计算方法略

利用MCMC的输出结果描述目标后验分布

  • MCMC输出结果给我们提供了一系列随机样本 θ 1 , θ 2 , θ 3 , . . . , θ n \theta_1,\theta_2,\theta_3,...,\theta_n θ1,θ2,θ3,...,θn这组样本可以等价地看作从目标后验分布 π ( θ ∣ x ) \pi(\theta|x) π(θx)中生成的样本,因此,我们就可以通过这组样本计算后验分布的数字特征,包括但不限于以下所列:
    • 后验期望: μ π ( θ ) = ∑ i = 1 n θ i n \mu^\pi(\theta)=\frac{\sum_{i=1}^n\theta_i}{n} μπ(θ)=ni=1nθi
    • 后验方差: V π ( θ ) = ∑ i = 1 n [ θ i − μ π ( θ ) ] 2 n V^\pi(\theta)=\frac{\sum_{i=1}^n[\theta_i-\mu^\pi(\theta)]^2}{n} Vπ(θ)=ni=1n[θiμπ(θ)]2
    • 后验众数: 在生成的后验密度图中使得后验密度达到最大的点 θ m o d e \theta_{mode} θmode(不等于 m a x { θ 1 , θ 2 , θ 3 , . . . , θ n } max\{\theta_1,\theta_2,\theta_3,...,\theta_n\} max{θ1,θ2,θ3,...,θn}!!)
  • 进一步地,如果我们要应用 M C M C MCMC MCMC方法的采样结果解决其它问题,那么原理也是相同,下面提供一个一般化的使用 M C M C MCMC MCMC方法解决贝叶斯预测推断问题的例子:
    • 假设历史样本 X X X服从一个参数为 θ \theta θ的分布 f ( x ∣ θ ) f(x|\theta) f(xθ) θ \theta θ的先验分布为 π ( θ ) \pi(\theta) π(θ),现在要求随机变量 Z ∼ g ( z ∣ θ ) Z\sim g(z|\theta) Zg(zθ)的后验预测密度
    • 按照贝叶斯预测推断的解题步骤,首先应该根据样本似然与先验分布求出后验分布,然后应用后验分布求出 Z Z Z的后验预测密度 θ \theta θ的后验分布按照如下公式计算 π ( θ ∣ x ) = f ( x ∣ θ ) π ( θ ) ∫ θ f ( x ∣ θ ) π ( θ ) d θ \pi(\theta|x)=\frac{f(x|\theta)\pi(\theta)}{\int_\theta f(x|\theta)\pi(\theta)d\theta} π(θx)=θf(xθ)π(θ)dθf(xθ)π(θ) Z Z Z的后验预测密度为 m ( z ) = ∫ θ g ( z ∣ θ ) π ( θ ∣ x ) d θ m(z)=\int_\theta g(z|\theta)\pi(\theta|x)d\theta m(z)=θg(zθ)π(θx)dθ假设这是一个难以计算的积分,那么应用 M C M C MCMC MCMC方法,得到一组基于后验分布采样得到的随机样本 θ 1 , θ 2 , θ 3 , . . . , θ n \theta_1,\theta_2,\theta_3,...,\theta_n θ1,θ2,θ3,...,θn,此时就有 m ( z ) ≈ ∑ i = 1 n g ( z ∣ θ i ) n m(z)\approx\frac{\sum_{i=1}^ng(z|\theta_i)}{n} m(z)ni=1ng(zθi)

马氏链收敛性诊断

  • 样本路径图: 根据马氏链的迭代次数对生成的样本值作图,如果所有的值都在一个区域里,且没有明显的周期性和趋势性,则认为收敛性已经达到在这里插入图片描述

MCMC采样方法

  • 由于一般情况下,随机构造的一个马尔科夫链状态转移矩阵 Q Q Q不满足细致平稳条件,即 π i Q i j ≠ π j Q j i \pi_iQ_{ij}\ne\pi_jQ_{ji} πiQij=πjQji因此 M C M C MCMC MCMC方法对上式做了一个改造,使得细致平稳条件恒成立,具体做法是引入了一个 α \alpha α,即 π i Q i j α ( i , j ) = π j Q j i α ( j , i ) \pi_iQ_{ij}\alpha(i,j)=\pi_jQ_{ji}\alpha(j,i) πiQijα(i,j)=πjQjiα(j,i)
  • 问题是什么样的 α ( i , j ) α(i,j) α(i,j)可以使等式成立呢?其实很简单,只要满足下两式即可: { α ( i , j ) = π j Q j i α ( j , i ) = π i Q i j \left\{ \begin{array}{} α(i,j)=π_jQ_{ji}\\ α(j,i)=π_iQ_{ij}\\ \end{array}\right. {α(i,j)=πjQjiα(j,i)=πiQij这样我们就得到了转移矩阵 P P P P ( i , j ) = Q ( i , j ) α ( i , j ) P(i,j)=Q(i,j)α(i,j) P(i,j)=Q(i,j)α(i,j)也就是说,我们的目标矩阵 P P P可以通过任意一个马尔科夫链状态转移矩阵 Q Q Q乘以 α ( i , j ) α(i,j) α(i,j)得到。 α ( i , j ) α(i,j) α(i,j)我们一般称之为接受率,取值在 [ 0 , 1 ] [0,1] [0,1]之间,可以理解为一个概率值,即目标矩阵 P P P可以通过任意一个马尔科夫链状态转移矩阵 Q Q Q以一定的接受率 α \alpha α获得
  • 这个很像接受-拒绝采样,它是以一个提议分布的采样结果通过一定的接受-拒绝概率近似一个复杂分布的采样结果,这里是以一个常见的马尔科夫链状态转移矩阵 Q Q Q通过一定的接受-拒绝概率得到目标转移矩阵 P P P,两者的解决问题思路是类似的。
  • 我们在MCMC采样方法中同样引入一个提议分布,用于近似转移矩阵的条件概率分布,即 g ( x ∗ ∣ x ) = Q ( x ∗ ∣ x ) g(x^*|x)=Q(x^*|x) g(xx)=Q(xx)用于在马氏链的前一个状态为 x x x的条件下,采样生成新的转移状态 x ∗ x^* x的概率分布
  • M C M C MCMC MCMC采样步骤:
    • 输入我们选定的提议分布 g ( x ∣ x t ) g(x|x_t) g(xxt),平稳分布 π ( x ) π(x) π(x),设定预烧期 B B B,迭代保持数 T T T
    • 从任意简单概率分布采样得到初始值 x 0 x_0 x0
    • for t = 0 t=0 t=0 to B + T − 1 B+T-1 B+T1:
      1. 由提议分布 g ( x ∣ x t ) g(x|x_t) g(xxt)中采样得到样本 x ∗ x^∗ x
      2. 从均匀分布 U ( 0 , 1 ) U(0,1) U(0,1)采样得到 u 0 u_0 u0
      3. 如果 u 0 < α ( x t , x ∗ ) = π ( x ∗ ) g ( x ∗ ∣ x t ) u_0<\alpha(x_t,x^*)=\pi(x^*)g(x^*|x_t) u0<α(xt,x)=π(x)g(xxt),则接受转移,即 x t + 1 = x ∗ x_{t+1}=x^* xt+1=x,否则不接受转移,即 x t + 1 = x t x_{t+1}=x_t xt+1=xt
    • 最终样本集 ( x B , x B + 1 , . . . , x B + T − 1 ) (x_{B},x_{B+1},...,x_{B+T-1}) (xB,xB+1,...,xB+T1)便是我们所需要的从平稳分布中采集的样本。
    • 上面这个过程基本上就是 M C M C MCMC MCMC采样的完整采样理论了,但是这个采样算法还是比较难在实际中应用,为什么呢?问题就出在上面的步骤3,由于 α ( x t , x ∗ ) α(x_t,x^∗) α(xt,x)可能非常的小,比如0.1,导致我们大部分的采样值都被拒绝转移,采样效率很低。有可能我们采样了上百万次马尔可夫链还没有收敛,怎么办呢?这时就轮到我们的 M − H M-H MH采样出场了。

Metropolis-Hastings算法

  • 我们回到 M C M C MCMC MCMC采样的细致平稳条件: π i Q i j α ( i , j ) = π j Q j i α ( j , i ) \pi_iQ_{ij}\alpha(i,j)=\pi_jQ_{ji}\alpha(j,i) πiQijα(i,j)=πjQjiα(j,i)我们采样效率低的原因是 α ( i , j ) α(i,j) α(i,j)太小了,我们假设 α ( i , j ) α(i,j) α(i,j)为0.1,而 α ( j , i ) α(j,i) α(j,i)为0.2。即 π i Q i j × 0.1 = π j Q j i × 0.2 π_iQ_{ij}×0.1=π_jQ_{ji}×0.2 πiQij×0.1=πjQji×0.2这时我们可以看到,如果两边同时扩大五倍,接受率提高到了0.5,细致平稳条件却仍然是满足的,即 π i Q i j × 0.5 = π j Q j i × 1 π_iQ_{ij}×0.5=π_jQ_{ji}×1 πiQij×0.5=πjQji×1因此,我们可以通过类似的方式增大接受率,对接受率做如下改进,即 α ( i , j ) = m i n { π j Q j i π i Q i j , 1 } α(i,j)=min\{\frac{π_jQ_{ji}}{π_iQ_{ij}},1\} α(i,j)=min{πiQijπjQji,1}
    通过这个微小的改造,我们就得到了可以在实际应用中使用的 M e t r o p o l i s − H a s t i n g s Metropolis-Hastings MetropolisHastings算法.
  • 算法过程如下:
    • 输入我们选定的提议分布 g ( x ∣ x t ) g(x|x_t) g(xxt),平稳分布 π ( x ) π(x) π(x),设定预烧期 B B B,迭代保持数 T T T
    • 从任意简单概率分布采样得到初始值 x 0 x_0 x0
    • for t = 0 t=0 t=0 to B + T − 1 B+T-1 B+T1:
      1. 由提议分布 g ( x ∣ x t ) g(x|x_t) g(xxt)中采样得到样本 x ∗ x^∗ x每次迭代将会根据上一状态 x t x_t xt对提议分布做出更新
      2. 从均匀分布 U ( 0 , 1 ) U(0,1) U(0,1)采样得到 u 0 u_0 u0
      3. 如果 u 0 < α ( x t , x ∗ ) = π ( x ∗ ) g ( x t ∣ x ∗ ) π ( x t ) g ( x ∗ ∣ x t ) u_0<\alpha(x_t,x^*)=\frac{π(x^*)g(x_t|x^*)}{π(x_t)g(x^*|x_t)} u0<α(xt,x)=π(xt)g(xxt)π(x)g(xtx)(由于 u 0 u_0 u0本身就采样自 U ( 0 , 1 ) U(0,1) U(0,1),因此一定小于1),则接受转移,即 x t + 1 = x ∗ x_{t+1}=x^* xt+1=x,否则不接受转移,即 x t + 1 = x t x_{t+1}=x_t xt+1=xt
    • 最终样本集 ( x B , x B + 1 , . . . , x B + T − 1 ) (x_{B},x_{B+1},...,x_{B+T-1}) (xB,xB+1,...,xB+T1)便是我们所需要的从平稳分布中采集的样本。

Metropolis抽样方法

  • M e t r o p o l i s − H a s t i n g s Metropolis-Hastings MetropolisHastings抽样方法是 M e t r o p o l i s Metropolis Metropolis抽样方法的推广, M e t r o p o l i s Metropolis Metropolis抽样方法的不同之处主要还是在于接受率:
    • M e t r o p o l i s Metropolis Metropolis抽样方法中,我们假设提议分布 g ( x ∗ ∣ x ) g(x^*|x) g(xx)是对称的,即满足 g ( x ∣ x ∗ ) = g ( x ∗ ∣ x ) g(x|x^*)=g(x^*|x) g(xx)=g(xx),这时我们的接受率可以进一步简化为 α ( i , j ) = m i n { π j π i , 1 } α(i,j)=min\{\frac{π_j}{π_i},1\} α(i,j)=min{πiπj,1}

随机游动的Metropolis算法

  • 随机游动的 M e t r o p o l i s Metropolis Metropolis算法又是 M e t r o p o l i s Metropolis Metropolis抽样方法的一个特例,随机游动的 M e t r o p o l i s Metropolis Metropolis算法的不同之处在于对马氏链生成新的状态的方式做出了改变
  • 具体而言,随机游动的 M e t r o p o l i s Metropolis Metropolis算法的提议分布仍然满足对称性,即提议分布 g g g满足 g ( x ∣ x ∗ ) = g ( x ∗ ∣ x ) g(x|x^*)=g(x^*|x) g(xx)=g(xx)但我们生成 x ∗ x^* x的方式有所不同,我们引入了一个随机增量 Z Z Z Z Z Z从原始的提议分布 g ( ⋅ ) g(·) g()产生,然后令 x ∗ = x t + Z x^*=x_t+Z x=xt+Z,这就要求提议分布满足 g ( x ∗ ∣ x ) = g ( x ∗ − x ∣ x ) = g ( Z ) g(x^*|x)=g(x^*-x|x)=g(Z) g(xx)=g(xxx)=g(Z)显然,提议分布 g g g需要满足平移不变性
  • 随机游动的 M e t r o p o l i s Metropolis Metropolis算法具体步骤如下:
    • 输入我们选定的提议分布 g ( ⋅ ) g(·) g(),平稳分布 π ( x ) π(x) π(x),设定预烧期 B B B,迭代保持数 T T T
    • 从任意简单概率分布采样得到初始值 x 0 x_0 x0
    • for t = 0 t=0 t=0 to B + T − 1 B+T-1 B+T1:
      1. 由提议分布 g ( ⋅ ) g(·) g()中采样得到随机增量 Z Z Z,令 x ∗ = x t + Z x^∗=x_t+Z x=xt+Z
      2. 从均匀分布 U ( 0 , 1 ) U(0,1) U(0,1)采样得到 u 0 u_0 u0
      3. 如果 u 0 < α ( x t , x ∗ ) = π ( x ∗ ) π ( x t ) u_0<\alpha(x_t,x^*)=\frac{π(x^*)}{π(x_t)} u0<α(xt,x)=π(xt)π(x)(由于 u 0 u_0 u0本身就采样自 U ( 0 , 1 ) U(0,1) U(0,1),因此一定小于1),则接受转移,即 x t + 1 = x ∗ x_{t+1}=x^* xt+1=x,否则不接受转移,即 x t + 1 = x t x_{t+1}=x_t xt+1=xt
    • 最终样本集 ( x B , x B + 1 , . . . , x B + T − 1 ) (x_{B},x_{B+1},...,x_{B+T-1}) (xB,xB+1,...,xB+T1)便是我们所需要的从平稳分布中采集的样本。
  • 随机游动的 M e t r o p o l i s Metropolis Metropolis算法对随机增量的方差比较敏感,当增量的方差太大时,大部分的候选点会被拒绝,而增量方差太小时,候选点就几乎都被接受。一种好的解决办法是监视拒绝概率,当拒绝概率在区间 [ 0.15 , 0.5 ] [0.15,0.5] [0.15,0.5]之内才可以保证得到的马氏链具备较好的性质,下面是一个示例,假设随机增量 Z Z Z从提议分布 N ( 0 , σ 2 ) N(0,\sigma^2) N(0,σ2)中产生,当 σ \sigma σ取值不同时,生成的马氏链如图
    在这里插入图片描述

随机游动的 M e t r o p o l i s Metropolis Metropolis算法与 M e t r o p o l i s − H a s t i n g s Metropolis-Hastings MetropolisHastings算法在代码实现上的差异

  • M e t r o p o l i s − H a s t i n g s Metropolis-Hastings MetropolisHastings算法

    for i in range(1,m):
        xt=x[i-1]
        g=gamma(xt,1)
        y=g.rvs()
        num=f.pdf(y)*gamma(y,1).pdf(xt)
        den=f.pdf(xt)*gamma(xt,1).pdf(y)
        if u[i-1]<=num/den:
            x[i]=y
        else:
            x[i]=x[i-1]
            k=k+1
    
  • 随机游动的 M e t r o p o l i s Metropolis Metropolis算法

    for i in range(1,m):
            xt=x[i-1]
            y=g.rvs()+xt
            num=f.pdf(y)
            den=f.pdf(xt)
            if u[i-1]<=num/den:
                x[i]=y
            else:
                x[i]=x[i-1]
                k+=1
    

G i b b s Gibbs Gibbs抽样方法

  • G i b b s Gibbs Gibbs抽样是 M e t r o p o l i s − H a s t i n g s Metropolis-Hastings MetropolisHastings算法的另一种特殊情形,它特别适合于目标分布是多元的情形,它将从多元目标分布中抽样转化为了从一元目标分布抽样,固定n−1个特征在某一个特征采样,这便是 G i b b s Gibbs Gibbs抽样的重要性所在

  • 定义: X = ( X 1 , X 2 , X 3 , . . . , X k ) X=(X_1,X_2,X_3,...,X_k) X=(X1,X2,X3,...,Xk) k k k维随机变量,其联合分布 π ( x ) = π ( x 1 , x 2 , x 3 , . . . , x k ) \pi(x)=\pi(x_1,x_2,x_3,...,x_k) π(x)=π(x1,x2,x3,...,xk)为目标抽样分布,定义 k − 1 k-1 k1维随机变量 X − j = ( X 1 , . . . , X j − 1 , x j + 1 , . . . , X k ) X_{-j}=(X_1,...,X_{j-1},x_{j+1},...,X_k) Xj=(X1,...,Xj1,xj+1,...,Xk)并记 X j ∣ X − j X_j|X_{-j} XjXj的满条件分布的概率密度为 π ( x ) = π ( x j ∣ x − j ) , j = 1 , 2 , 3 , . . . , k \pi(x)=\pi(x_j|x_{-j}),j=1,2,3,...,k π(x)=π(xjxj),j=1,2,3,...,k,则 G i b b s Gibbs Gibbs抽样就是从这k个条件分布中产生候选点,以解决直接从 f f f中进行抽样的困难,该算法步骤如下:

    • 输入平稳分布 π ( x 1 , x 2 , . . . , x n ) π(x_1,x_2,...,x_n) π(x1,x2...,xn)或者对应的所有特征的条件概率分布,设定预烧期为 B B B,迭代保持数为 T T T
    • t = 0 t=0 t=0时,初始化 X i ( 0 ) ( i = 1 , 2 , . . . , k ) X^{(0)}_i(i=1,2,...,k) Xi(0)(i=1,2,...,k)(我们记 X i ( t ) X^{(t)}_i Xi(t) X i X_i Xi在第 t t t 次迭代下的情形)
    • for t = 0 t=0 t=0 to B + T − 1 B+T−1 B+T1:
      • 从条件概率分布 P ( x 1 ∣ x 2 ( t ) , x 3 ( t ) , . . . , x k ( t ) ) P(x_1|x^{(t)}_2,x^{(t)}_3,...,x^{(t)}_k) P(x1x2(t),x3(t),...,xk(t))中采样得到样本 x 1 t + 1 x^{t+1}_1 x1t+1
      • 从条件概率分布 P ( x 2 ∣ x 1 ( t + 1 ) , x 3 ( t ) , x 4 ( t ) , . . . , x k ( t ) ) P(x_2|x^{(t+1)}_1,x^{(t)}_3,x^{(t)}_4,...,x^{(t)}_k) P(x2x1(t+1),x3(t),x4(t),...,xk(t))中采样得到样本 x 2 t + 1 x^{t+1}_2 x2t+1
      • 从条件概率分布 P ( x k ∣ x 1 ( t + 1 ) , x 2 ( t + 1 ) , . . . , x k − 1 ( t + 1 ) ) P(x_k|x^{(t+1)}_1,x^{(t+1)}_2,...,x^{(t+1)}_{k−1}) P(xkx1(t+1),x2(t+1),...,xk1(t+1))中采样得到样本 x k ( t + 1 ) x^{(t+1)}_k xk(t+1)
    • 样本集 { ( x 1 ( B ) , x 2 ( B ) , . . . , x k ( B ) ) , . . . , ( x 1 ( B + T − 1 ) , x 2 ( B + T − 1 ) , . . . , x k ( B + T − 1 ) ) } \{(x^{(B)}_1,x^{(B)}_2,...,x^{(B)}_k),...,(x^{(B+T-1)}_1,x^{(B+T-1)}_2,...,x^{(B+T-1)}_k)\} {(x1(B),x2(B),...,xk(B)),...,(x1(B+T1),x2(B+T1),...,xk(B+T1))}即为我们需要的平稳分布对应的样本集。
  • 一个示例:
    在这里插入图片描述
    代码:

    import numpy as np 
    from scipy.stats import uniform,binom,beta
    import matplotlib.pyplot as plt 
    
    # 定义马氏链长度
    m=10000
    # 定义预烧期
    burn=1000
    # 初始化一条二维[xy]的马氏链
    x=np.zeros((m,2))
    n=50;a=1;b=1
    # 由于二项分布取值在0-1之间,故在U(0,1)上随机产生一个数值
    x[0,0]=uniform(0,1).rvs()
    # 由y|x的条件分布的期望值初始化x[0,1]
    x[0,1]=(x[0,0]+a)/(n+a+b)
    
    for i in range(1,m):
        x[i,]=x[i-1,]
        # print(x[i,] is x[i-1,])
        # 计算新的x
        x[i,0]=binom(n,x[i,1]).rvs()
        # 计算新的y
        x[i,1]=beta(x[i,0]+a,n-x[i,0]+b).rvs()
    
    x=x[burn:,:]
    

References

  • https://www.cnblogs.com/pinard/p/6638955.html
  • https://zhuanlan.zhihu.com/p/37121528

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/612820.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Unity | HDRP高清渲染管线学习笔记:Volume

目录 一、Volume框架 二、Volume Profile 三、Volume重载 1.Visual Environment&#xff08;环境设置&#xff09; 1.1 Sky type 1.2 Ambient Mode 2.Sky 2.1 HDRI Sky&#xff08;HDRI天空&#xff09; 2.2 Gradient Sky&#xff08;渐变天空&#xff09; 2.3 Physi…

JAVA日志框架

JAVA日志框架 常见日志框架日志级别阿里日志规约什么时候打印日志配置文件log4j.propertieslogback-spring.xmllogback的默认配置 导入依赖日志使用方式&#xff0c;引入slf4j的API输出用户日志 常见日志框架 日志框架&#xff1a;Log4j 、Logback 。 日志门面&#xff1a;Slf…

第2章:SpringMVC的@RequestMapping注解

一、SpringMVC搭建框架 1.创建一个Maven程序的步骤 ①在pom.xml导入maven依赖 <!--打包方式是war--> <!--war 包通常用于网站&#xff0c;它是一个可以直接运行的 web 模块--> <packaging>war</packaging> <dependencies><!-- SpringMVC --…

二战阿里巴巴成功上岸,准备了小半年,拿23k也不算很高吧~

先说下我基本情况&#xff0c;本科不是计算机专业&#xff0c;现在是学通信&#xff0c;然后做图像处理&#xff0c;可能面试官看我不是科班出身没有问太多计算机相关的问题&#xff0c;因为第一次找工作&#xff0c;阿里的游戏专场又是最早开始的&#xff0c;就投递了&#xf…

如何获取 C#程序 内核态线程栈

一&#xff1a;背景 1. 讲故事 在这么多的案例分析中&#xff0c;往往会发现一些案例是卡死在线程的内核态栈上&#xff0c;但拿过来的dump都是用户态模式下&#xff0c;所以无法看到内核态栈&#xff0c;这就比较麻烦&#xff0c;需要让朋友通过其他方式生成一个蓝屏的dump&…

线程同步(一)

上篇文章讲述了什么是线程&#xff0c;以及在Linux系统下线程的相关操作 线程&#xff08;Linux系统实现&#xff09;_小梁今天敲代码了吗的博客-CSDN博客 本文将继续讲述线程的相关知识——线程同步 目录 1.线程同步的概念 2.线程不同步可能会发生什么 3.线程同步方式 …

机器学习——聚类算法详解

1.聚类问题 1&#xff09;聚类问题与核心概念 聚类算法做的事情&#xff0c;就是对无标签的数据&#xff0c;基于数据分布进行分群分组&#xff0c;使得相似的数据尽量落在同一个簇内。 我们先对比区分一下聚类和分类&#xff1a; 聚类是一种无监督学习&#xff0c;而分类是…

第十三届蓝桥杯C++B组j国赛

第十三届蓝桥杯C组 题目 2693: 蓝桥杯2022年第十三届决赛真题-卡牌 题目描述 这天&#xff0c;小明在整理他的卡牌。 他一共有 n 种卡牌&#xff0c;第 i 种卡牌上印有正整数数 i(i ∈ [1, n])&#xff0c;且第 i 种卡牌 现有 ai 张。 而如果有 n 张卡牌&#xff0c;其中…

硬件测试—温升测试之JinKo 多路温度测试仪使用说明

一、概述 1.1&#xff1a;测试概述 在硬件测试中&#xff0c;温升测试也是很重要的一项测试&#xff0c;产品各项器件在稳定的环境温度下满载工作的芯片温度&#xff0c;根据测试情况评估散热需求。 1.2&#xff1a;产品图片 1.3&#xff1a;使用设备 名称 厂家 型号 PC电脑…

Acer Aspire V3-572G电脑 Hackintosh 黑苹果efi引导文件

原文来源于黑果魏叔官网&#xff0c;转载需注明出处。&#xff08;下载请直接百度黑果魏叔&#xff09; 硬件配置 硬件型号驱动情况 主板Acer Aspire V3-572G 处理器i7 5500U 2 Cores/4 Threads2,4Ghz已驱动 内存Any Samsung, Hynix or Kingston DDR3 8GB(4GBx2).已驱动 硬…

CSDN 每日一练用例数据缺失了怎么办?

CSDN 每日一练用例数据缺失了怎么办&#xff1f; 引子1、用例与结果不匹配2、阅读理解困难3、用例数据缺失 用例数据缺失&#xff0c;却有人 AC &#xff1f;神奇的 c28761 津津的储蓄计划70093 近视的小张 小结最后的吐槽 引子 老顾最近几个月经常在 CSDN 举办的周赛上浑水摸…

Tomcat 部署

一.Tomcat介绍 Servlet 是 Java Servlet 的简称&#xff0c;可以理解为是一个服务连接器&#xff0c;是用 Java 编写的服务器端程序&#xff0c;具有独立于平台和协议的特性&#xff0c; 简单的理解&#xff1a;servlet 就是一个中间件&#xff0c;包含了接口和方法&#xff0…

5.2.6 地址解析协议ARP

5.2.6 地址解析协议ARP 我们知道要想实现全球范围内主机之间的通信&#xff0c;必须要有两个统一&#xff0c;一个是地址&#xff0c;另一个是数据格式&#xff0c;我们使用IP地址来实现统一的地址&#xff0c;使用IP分组实现统一的数据格式&#xff0c;在前面局域网的学习中我…

【AIGC】13、GLIP | 首次将 object detection 重建为 phrase grounding 任务

文章目录 一、背景二、方法2.1 将 object detection 和 phrase grounding 进行统一2.2 Language-aware deep fusion2.3 使用语义丰富的数据来进行预训练 三、效果3.1 迁移到现有 Benchmarks3.2 在 COCO 上进行零样本和有监督的迁移3.3 在 LVIS 上进行零样本迁移学习3.4 在 Flic…

android 如何分析应用的内存(四)

android 如何分析应用的内存&#xff08;四&#xff09; 接上文 在介绍细节部分时&#xff0c;先介绍了各种工具的使用&#xff0c;而这些工具&#xff0c;大部分都用来调试&#xff0c;诸如&#xff1a;特定内存点&#xff0c;堆栈&#xff0c;寄存器&#xff0c;变量值等的…

MySQL安装流程 及 8.0与5.7区别

一、MySQL版本介绍 1、MySQL 8.0 窗口函数&#xff1a;MySQL 8.0版本支持窗口函数&#xff0c;这是数据分析工作中非常常用的一类函数。窗口函数可以让用户在单个查询中跨多个行检索数据&#xff0c;并在查询结果中对数据执行计算。隐藏索引&#xff1a;在MySQL 8.0版本中&am…

C++STL详解 string【C++】

文章目录 函数模板函数模板的原理函数模板的实例化模板参数的匹配原则 类模板类模板的定义格式类模板的实例化 string 函数模板 函数模板的原理 template <typename T> //模板参数 ——类型 void Swap(T& x1, T& x2) {T tmp x1;x1 x2;x2 tmp; } int main()…

牛客网语法刷题篇(C语言) — 输出格式化

&#x1f929;本文作者&#xff1a;大家好&#xff0c;我是paperjie&#xff0c;感谢你阅读本文&#xff0c;欢迎一建三连哦。 &#x1f970;内容专栏&#xff1a;这里是《C语言—语法篇》专栏&#xff0c;笔者用重金(时间和精力)打造&#xff0c;基础知识一网打尽&#xff0c;…

解析Linux中断子系统之中断映射

中断是当前计算机系统的基础功能&#xff0c;也是系统响应外设事件的必备桥梁。不同的架构对中断控制器有不同的设计理念&#xff0c;本文针对ARM公司提供的通用中断控制器&#xff08;GIC,Generic Interrupt Controller&#xff09;介绍在linux系统中的硬件中断号与软件中断号…

SpringBootWeb登录认证

1. 登录功能 1.1 需求 在登录界面中&#xff0c;我们可以输入用户的用户名以及密码&#xff0c;然后点击 “登录” 按钮就要请求服务器&#xff0c;服务端判断用户输入的用户名或者密码是否正确。如果正确&#xff0c;则返回成功结果&#xff0c;前端跳转至系统首页面。 1.2 …