最大似然和贝叶斯参数估计

news2025/1/12 6:40:24
  • 统计生成模型的参数估计
    – Maximum Likelihood(ML) 假设参数是某个确定的值,通过使似然度最大求出参数
    – Bayesian estimation 假设参数是随机变量,估计参数分布的参数
    – 最大似然求出具体的参数,贝叶斯求的是参数的分布

最大似然估计

  • 假设概率密度函数 p ( x ∣ ω i , θ i ) , θ i p\left(x \mid \omega_i, \theta_i\right), \quad \theta_i p(xωi,θi),θi to be estimated,估计每一类的概率密度函数, θ i \theta_i θi就是每一类概率密度函数的待估计参数
  • 样本数据 D 1 , … , D c D_1, \ldots, D_c D1,,Dc,假设每一类 D i D_i Di中的样本满足独立同分布i.i.d
  • 总体流程就是从每一类中估计出一个概率密度函数,组成分类器
    在这里插入图片描述

如何估计每一类的参数

  • 似然函数(在某种参数下得到现有样本的概率,并应用独立同分布条件)
    p ( D ∣ θ ) = ∏ k = 1 n p ( x k ∣ θ ) p(\mathcal{D} \mid \boldsymbol{\theta})=\prod_{k=1}^n p\left(\mathbf{x}_k \mid \boldsymbol{\theta}\right) p(Dθ)=k=1np(xkθ)
  • 求使得似然函数最大化的参数(可能有解析解;如果没有可以考虑用梯度下降或其他优化方法)
    max ⁡ θ p ( D ∣ θ ) ↔ ∇ θ p ( D ∣ θ ) = 0 \max _{\boldsymbol{\theta}} p(D \mid \boldsymbol{\theta}) \leftrightarrow \nabla_{\boldsymbol{\theta}} p(D \mid \boldsymbol{\theta})=0 θmaxp(Dθ)θp(Dθ)=0
    ∇ θ ≡ [ ∂ ∂ θ 1 ⋮ ∂ ∂ θ p ] \nabla_{\boldsymbol{\theta}} \equiv\left[\begin{array}{c} \frac{\partial}{\partial \theta_1} \\ \vdots \\ \frac{\partial}{\partial \theta_p} \end{array}\right] θ θ1θp
    在这里插入图片描述
  • 似然度通常取对数,这样比较好算(累乘变累加),也就是对数似然度
    l ( θ ) ≡ ln ⁡ p ( D ∣ θ ) l ( θ ) = ∑ k = 1 n ln ⁡ p ( x k ∣ θ ) l(\boldsymbol{\theta}) \equiv \ln p(\mathcal{D} \mid \boldsymbol{\theta}) \quad l(\boldsymbol{\theta})=\sum_{k=1}^n \ln p\left(\mathrm{x}_k \mid \boldsymbol{\theta}\right) l(θ)lnp(Dθ)l(θ)=k=1nlnp(xkθ)
  • ML估计
    θ ^ = arg ⁡ max ⁡ θ l ( θ ) ∇ θ l = ∑ k = 1 n ∇ θ ln ⁡ p ( x k ∣ θ ) = 0 ∂ l ∂ θ j = 0 , j = 1 , … , p \begin{aligned} & \hat{\boldsymbol{\theta}}=\arg \max _{\boldsymbol{\theta}} l(\boldsymbol{\theta}) \\ & \nabla_{\boldsymbol{\theta}} l=\sum_{k=1}^n \nabla_{\boldsymbol{\theta}} \ln p\left(\mathrm{x}_k \mid \boldsymbol{\theta}\right)=0 \\ & \frac{\partial l}{\partial \theta_j}=0, \quad j=1, \ldots, p \end{aligned} θ^=argθmaxl(θ)θl=k=1nθlnp(xkθ)=0θjl=0,j=1,,p

【例子】假设样本服从高斯分布,但是均值 μ \mu μ未知

  • 单个样本的对数似然度极其梯度
    ln ⁡ p ( x k ∣ μ ) = − 1 2 ln ⁡ [ ( 2 π ) d ∣ Σ ∣ ] − 1 2 ( x k − μ ) t Σ − 1 ( x k − μ ) ∇ θ ln ⁡ p ( x k ∣ μ ) = Σ − 1 ( x k − μ ) \begin{gathered} \ln p\left(\mathrm{x}_k \mid \boldsymbol{\mu}\right)=-\frac{1}{2} \ln \left[(2 \pi)^d|\boldsymbol{\Sigma}|\right]-\frac{1}{2}\left(\mathrm{x}_k-\boldsymbol{\mu}\right)^t \boldsymbol{\Sigma}^{-1}\left(\mathrm{x}_k-\boldsymbol{\mu}\right) \\ \nabla_{\boldsymbol{\theta}} \ln p\left(\mathrm{x}_k \mid \boldsymbol{\mu}\right)=\boldsymbol{\Sigma}^{-1}\left(\mathrm{x}_k-\boldsymbol{\mu}\right) \end{gathered} lnp(xkμ)=21ln[(2π)dΣ]21(xkμ)tΣ1(xkμ)θlnp(xkμ)=Σ1(xkμ)
  • 令梯度为0,可以看到均值的最大似然估计就是样本均值
    ∇ θ l ( θ ) = 0 ⇒ ∑ k = 1 n Σ − 1 ( x k − μ ^ ) = 0 ⇒ μ ^ = 1 n ∑ k = 1 n x k \begin{aligned} \nabla_{\boldsymbol{\theta}} l(\boldsymbol{\theta})=0 & \Rightarrow \sum_{k=1}^n \boldsymbol{\Sigma}^{-1}\left(\mathrm{x}_k-\hat{\boldsymbol{\mu}}\right)=0 \\ & \Rightarrow \hat{\mu}=\frac{1}{n} \sum_{k=1}^n \mathrm{x}_k \end{aligned} θl(θ)=0k=1nΣ1(xkμ^)=0μ^=n1k=1nxk

【例子】假设样本服从高斯分布,但是均值 μ \mu μ和协方差矩阵 Σ \Sigma Σ均未知
(1)假设一维情况: θ 1 = μ \theta_1=\mu θ1=μ and θ 2 = σ 2 \theta_2=\sigma^2 θ2=σ2

  • 单样本对数似然度
    ln ⁡ p ( x k ∣ θ ) = − 1 2 ln ⁡ 2 π θ 2 − 1 2 θ 2 ( x k − θ 1 ) 2 \ln p\left(x_k \mid \boldsymbol{\theta}\right)=-\frac{1}{2} \ln 2 \pi \theta_2-\frac{1}{2 \theta_2}\left(x_k-\theta_1\right)^2 lnp(xkθ)=21ln2πθ22θ21(xkθ1)2
  • 对参数求梯度
    ∇ θ l = ∇ θ ln ⁡ p ( x k ∣ θ ) = [ 1 θ 2 ( x k − θ 1 ) − 1 2 θ 2 + ( x k − θ 1 ) 2 2 θ 2 2 ] \nabla_{\boldsymbol{\theta}} l=\nabla_{\boldsymbol{\theta}} \ln p\left(x_k \mid \boldsymbol{\theta}\right)=\left[\begin{array}{c} \frac{1}{\theta_2}\left(x_k-\theta_1\right) \\ -\frac{1}{2 \theta_2}+\frac{\left(x_k-\theta_1\right)^2}{2 \theta_2^2} \end{array}\right] θl=θlnp(xkθ)=[θ21(xkθ1)2θ21+2θ22(xkθ1)2]
  • 令梯度为0,解方程得
    ∇ θ l ( θ ) = 0 ⇒ ∑ k = 1 n 1 θ ^ 2 ( x k − θ ^ 1 ) = 0 ⇒ μ ^ = 1 n ∑ k = 1 n x k − ∑ k = 1 n 1 θ ^ 2 + ∑ k = 1 n ( x k − θ 1 ^ ) 2 θ ^ 2 2 = 0 ⇒ σ ^ 2 = 1 n ∑ k = 1 n ( x k − μ ^ ) 2 \begin{aligned} \nabla_{\boldsymbol{\theta}} l(\boldsymbol{\theta})&=0 \Rightarrow \sum_{k=1}^n \frac{1}{\hat{\theta}_2}\left(x_k-\hat{\theta}_1\right)=0 \Rightarrow \hat{\mu}=\frac{1}{n} \sum_{k=1}^n x_k \\ -\sum_{k=1}^n \frac{1}{\hat{\theta}_2}&+\sum_{k=1}^n \frac{\left(x_k-\hat{\theta_1}\right)^2}{\hat{\theta}_2^2}=0 \Rightarrow \hat{\sigma}^2=\frac{1}{n} \sum_{k=1}^n\left(x_k-\hat{\mu}\right)^2 \end{aligned} θl(θ)k=1nθ^21=0k=1nθ^21(xkθ^1)=0μ^=n1k=1nxk+k=1nθ^22(xkθ1^)2=0σ^2=n1k=1n(xkμ^)2
  • 这个估计是有偏估计,但是我忘记怎么证了(手动狗头),本科概率论有讲
    E [ 1 n ∑ i = 1 n ( x i − x ˉ ) 2 ] = n − 1 n σ 2 ≠ σ 2 \mathcal{E}\left[\frac{1}{n} \sum_{i=1}^n\left(x_i-\bar{x}\right)^2\right]=\frac{n-1}{n} \sigma^2 \neq \sigma^2 E[n1i=1n(xixˉ)2]=nn1σ2=σ2

(2)多变量情形
∇ θ l = ∑ k = 1 n ∇ θ ln ⁡ p ( x k ∣ θ ) = 0 μ ^ = 1 n ∑ k = 1 n x k Σ ^ = 1 n ∑ k = 1 n ( x k − μ ^ ) ( x k − μ ^ ) t \begin{aligned} \nabla_{\boldsymbol{\theta}} l & =\sum_{k=1}^n \nabla_{\boldsymbol{\theta}} \ln p\left(\mathrm{x}_k \mid \boldsymbol{\theta}\right)=0 \\ \hat{\mu} & =\frac{1}{n} \sum_{k=1}^n \mathrm{x}_k \\ \widehat{\boldsymbol{\Sigma}} & =\frac{1}{n} \sum_{k=1}^n\left(\mathrm{x}_k-\hat{\boldsymbol{\mu}}\right)\left(\mathrm{x}_k-\hat{\boldsymbol{\mu}}\right)^t \end{aligned} θlμ^Σ =k=1nθlnp(xkθ)=0=n1k=1nxk=n1k=1n(xkμ^)(xkμ^)t

  • 无偏估计应该是这样的,但是实际差别不大
    E [ 1 n − 1 ∑ i = 1 n ( x i − x ˉ ) 2 ] = σ 2 C = 1 n − 1 ∑ k = 1 n ( x k − μ ^ ) ( x k − μ ^ ) t \begin{aligned} & \mathcal{E}\left[\frac{1}{n-1} \sum_{i=1}^n\left(x_i-\bar{x}\right)^2\right]=\sigma^2 \\ & \mathbf{C}=\frac{1}{n-1} \sum_{k=1}^n\left(\mathbf{x}_k-\hat{\boldsymbol{\mu}}\right)\left(\mathrm{x}_k-\hat{\boldsymbol{\mu}}\right)^t \end{aligned} E[n11i=1n(xixˉ)2]=σ2C=n11k=1n(xkμ^)(xkμ^)t

贝叶斯参数估计

  • 后验概率(全概率公式,后面都带一个 D \mathcal{D} D,代表样本集)
    P ( ω i ∣ x , D ) = p ( x ∣ ω i , D ) P ( ω i ∣ D ) ∑ j = 1 c p ( x ∣ ω j , D ) P ( ω j ∣ D ) P\left(\omega_i \mid \mathbf{x}, \mathcal{D}\right)=\frac{p\left(\mathbf{x} \mid \omega_i, \mathcal{D}\right) P\left(\omega_i \mid \mathcal{D}\right)}{\sum_{j=1}^c p\left(\mathbf{x} \mid \omega_j, \mathcal{D}\right) P\left(\omega_j \mid \mathcal{D}\right)} P(ωix,D)=j=1cp(xωj,D)P(ωjD)p(xωi,D)P(ωiD)
  • 假设先验概率和样本无关
    P ( ω i ∣ x , D ) = p ( x ∣ ω i , D i ) P ( ω i ) ∑ j = 1 c p ( x ∣ ω j , D j ) P ( ω j ) P\left(\omega_i \mid \mathbf{x}, \mathcal{D}\right)=\frac{p\left(\mathbf{x} \mid \omega_i, \mathcal{D}_i\right) P\left(\omega_i\right)}{\sum_{j=1}^c p\left(\mathbf{x} \mid \omega_j, \mathcal{D}_j\right) P\left(\omega_j\right)} P(ωix,D)=j=1cp(xωj,Dj)P(ωj)p(xωi,Di)P(ωi)
  • 我们已知样本集 D \mathcal{D} D,去估计 x \mathbf{x} x
    p ( x ∣ D ) = ∫ p ( x , θ ∣ D ) d θ = ∫ p ( x ∣ θ ) p ( θ ∣ D ) ‾ d θ \begin{aligned} p(\mathbf{x} \mid \mathcal{D}) & =\int p(\mathbf{x}, \boldsymbol{\theta} \mid \mathcal{D}) d \theta \\ & =\int p(\mathbf{x} \mid \boldsymbol{\theta}) \underline{p(\boldsymbol{\theta} \mid \mathcal{D})} d \boldsymbol{\theta} \end{aligned} p(xD)=p(x,θD)dθ=p(xθ)p(θD)dθ
  • 我们知道 p ( x ∣ θ ) p(\mathbf{x} \mid \boldsymbol{\theta}) p(xθ),但不知道 p ( θ ∣ D ) p(\boldsymbol{\theta} \mid \mathcal{D}) p(θD),这就是贝叶斯估计要解的问题,咱们是在已知样本集的情况下,去估计未知参数的分布 p ( θ ∣ D ) p(\boldsymbol{\theta} \mid \mathcal{D}) p(θD)

高斯密度贝叶斯估计

  • 一维情况估计 p ( θ ∣ D ) p(\boldsymbol{\theta} \mid \mathcal{D}) p(θD)
  • 假设样本服从高斯分布 p ( x ∣ μ ) ∼ N ( μ , σ 2 ) p(x \mid \mu) \sim N\left(\mu, \sigma^2\right) p(xμ)N(μ,σ2),假设均值也服从高斯分布 p ( μ ) ∼ N ( μ 0 , σ 0 2 ) p(\mu) \sim N\left(\mu_0, \sigma_0^2\right) p(μ)N(μ0,σ02) p ( D ∣ μ ) = ∏ k = 1 n p ( x k ∣ μ ) p(D \mid \mu)=\prod_{k=1}^n p\left(x_k \mid \mu\right) p(Dμ)=k=1np(xkμ)
    p ( μ ∣ D ) = p ( D ∣ μ ) p ( μ ) ∫ p ( D ∣ μ ) p ( μ ) d μ = α ∏ k = 1 n p ( x k ∣ μ ) p ( μ ) \begin{aligned} p(\mu \mid \mathcal{D}) & =\frac{p(\mathcal{D} \mid \mu) p(\mu)}{\int p(\mathcal{D} \mid \mu) p(\mu) d \mu} & =\alpha \prod_{k=1}^n p\left(x_k \mid \mu\right) p(\mu) \end{aligned} p(μD)=p(Dμ)p(μ)dμp(Dμ)p(μ)=αk=1np(xkμ)p(μ)
  • α \alpha α是个归一化常数
    p ( μ ∣ D ) = α ∏ k = 1 n 1 2 π σ exp ⁡ [ − 1 2 ( x k − μ σ ) 2 ] ⏞ p ( x k ∣ μ ) 1 2 π σ 0 exp ⁡ [ − 1 2 ( μ − μ 0 σ 0 ) 2 ] ⏞ p ( μ ) = α ′ exp ⁡ [ − 1 2 ( ∑ k = 1 n ( μ − x k σ ) 2 + ( μ − μ 0 σ 0 ) 2 ) ] = α ′ ′ exp ⁡ [ − 1 2 [ ( n σ 2 + 1 σ 0 2 ) μ 2 − 2 ( 1 σ 2 ∑ k = 1 n x k + μ 0 σ 0 2 ) μ ] ] \begin{aligned} p(\mu \mid \mathcal{D})&=\alpha \prod_{k=1}^n \overbrace{\frac{1}{\sqrt{2 \pi} \sigma} \exp \left[-\frac{1}{2}\left(\frac{x_k-\mu}{\sigma}\right)^2\right]}^{p\left(x_k \mid \mu\right)} \overbrace{\frac{1}{\sqrt{2 \pi} \sigma_0} \exp \left[-\frac{1}{2}\left(\frac{\mu-\mu_0}{\sigma_0}\right)^2\right]}^{p(\mu)} \\ & =\alpha^{\prime} \exp \left[-\frac{1}{2}\left(\sum_{k=1}^n\left(\frac{\mu-x_k}{\sigma}\right)^2+\left(\frac{\mu-\mu_0}{\sigma_0}\right)^2\right)\right] \\ & =\alpha^{\prime \prime} \exp \left[-\frac{1}{2}\left[\left(\frac{n}{\sigma^2}+\frac{1}{\sigma_0^2}\right) \mu^2-2\left(\frac{1}{\sigma^2} \sum_{k=1}^n x_k+\frac{\mu_0}{\sigma_0^2}\right) \mu\right]\right] \\ & \end{aligned} p(μD)=αk=1n2π σ1exp[21(σxkμ)2] p(xkμ)2π σ01exp[21(σ0μμ0)2] p(μ)=αexp[21(k=1n(σμxk)2+(σ0μμ0)2)]=α′′exp[21[(σ2n+σ021)μ22(σ21k=1nxk+σ02μ0)μ]]
    p ( μ ∣ D ) = 1 2 π σ n exp ⁡ [ − 1 2 ( μ − μ n σ n ) 2 ] p(\mu \mid \mathcal{D})=\frac{1}{\sqrt{2 \pi} \sigma_n} \exp \left[-\frac{1}{2}\left(\frac{\mu-\mu_n}{\sigma_n}\right)^2\right] p(μD)=2π σn1exp[21(σnμμn)2]
    σ n 2 = σ 0 2 σ 2 n σ 0 2 + σ 2 ⟶ μ n = ( n σ 0 2 n σ 0 2 + σ 2 ) μ ^ n + σ 2 n σ 0 2 + σ 2 μ 0 \sigma_n^2=\frac{\sigma_0^2 \sigma^2}{n \sigma_0^2+\sigma^2} \longrightarrow \mu_n=\left(\frac{n \sigma_0^2}{n \sigma_0^2+\sigma^2}\right) \hat{\mu}_n+\frac{\sigma^2}{n \sigma_0^2+\sigma^2} \mu_0 σn2=nσ02+σ2σ02σ2μn=(nσ02+σ2nσ02)μ^n+nσ02+σ2σ2μ0

贝叶斯估计一般情况

  • 估计参数后验概率分布
    p ( θ ∣ D ) = p ( D ∣ θ ) p ( θ ) ∫ p ( D ∣ θ ) p ( θ ) d θ p ( D ∣ θ ) = ∏ k = 1 n p ( x k ∣ θ ) p(\boldsymbol{\theta} \mid \mathcal{D})=\frac{p(\mathcal{D} \mid \boldsymbol{\theta}) p(\boldsymbol{\theta})}{\int p(\mathcal{D} \mid \boldsymbol{\theta}) p(\boldsymbol{\theta}) d \boldsymbol{\theta}} \quad p(\mathcal{D} \mid \boldsymbol{\theta})=\prod_{k=1}^n p\left(\mathbf{x}_k \mid \boldsymbol{\theta}\right) p(θD)=p(Dθ)p(θ)dθp(Dθ)p(θ)p(Dθ)=k=1np(xkθ)
  • 估计数据概率分布
    p ( x ∣ D ) = ∫ p ( x ∣ θ ) p ( θ ∣ D ) d θ p(\mathbf{x} \mid \mathcal{D})=\int p(\mathbf{x} \mid \boldsymbol{\theta}) p(\boldsymbol{\theta} \mid \mathcal{D}) d \boldsymbol{\theta} p(xD)=p(xθ)p(θD)dθ
     If  p ( θ ∣ D )  peaks at  θ = θ ^ , p ( x ∣ D )  will be approximately  p ( x ∣ θ ^ ) \text { If } p(\theta \mid D) \text { peaks at } \boldsymbol{\theta}=\hat{\boldsymbol{\theta}}, p(\mathbf{x} \mid \mathrm{D}) \text { will be approximately } p(\mathbf{x} \mid \hat{\boldsymbol{\theta}})  If p(θD) peaks at θ=θ^,p(xD) will be approximately p(xθ^)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/131596.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

献给自己技术成长的第三年

年度总结词语:幸运 献给自己技术成长的第三年一、五州一都二、if else量产三、学技术四、用真心五、设计精产六、感恩幸运一、五州一都 1.1-1.12成都、2.23-3.19广州、4.12-7.23苏州、8.12-8.20兰州、8.23-9.20湖州、其余杭州 成都。去年年底出差到成都,…

HTTP_day01

在互联网世界里,HTTP 通常跑在 TCP/IP 协议栈之上,依靠 IP 协议实现寻址和路由、TCP 协议实现可靠数据传输、DNS 协议实现域名查找、SSL/TLS 协议实现安全通信。此外,还有一些协议依赖于 HTTP,例如 WebSocket、HTTPDNS 等。这些协…

【数据结构】冒泡排序、快速排序(递归,非递归)、归并排序(递归,非递归),七大排序比较,

文章目录冒泡排序快速排序归并排序七大排序之间的对比冒泡排序 基本思想:所谓交换,就是根据序列中两个记录键值的比较结果来对换这两个记录在序列中的位置,交换排序的特点是:将键值较大的记录向序列的尾部移动,键值较小…

高性能web网关之Openresty相关基础知识

高性能web网关之Openresty一、Openresty 简介二、Openresty 应用场景三、lua-nginx-module3.1、Lua 模块指令顺序3.2、Lua嵌入nginx四、责任链五、cosocket后言一、Openresty 简介 openresty 是一个基于 nginx 与 lua 的高性能 web 平台,其内部集成了大量精良的 lu…

148.排序链表

148.排序链表 题目: 给你链表的头结点 head ,请将其按 升序 排列并返回 排序后的链表 。 示例 1: 输入:head [4,2,1,3] 输出:[1,2,3,4]示例 2: 输入:head [-1,5,3,4,0] 输出:…

【论文阅读】CVPR2018-深度材料感知跨光谱立体匹配

深度材料感知跨光谱立体匹配 摘要 跨光谱成像对识别和检测任务很有帮助。通常,多个相机用于跨光谱成像,因此需要图像对齐或双目系统中的视差估计。多相机跨光谱系统逐渐被嵌入到有源RGB-D设备中(例如Kinect和iPhone X中的RGB-NIR相机&#…

2022 年度回忆

2022 年度回忆 过了今天就是2023年了,记录一下在这一年里发生的点点滴滴吧。 年度总结2022 年度回忆1.石家庄实习2.准备秋招,然后去沈阳实习3.回学校4.来北京实习了总结今年大体且分为四条故事线 1.22年上半年石家庄实习 2.实习结束回家准备秋招&#…

句子表征(各项异性等偏差):PromptBERT: Improving BERT Sentence Embeddings with Prompts

一、核心 句子表征存在不足之处,可能面临各向异性、可能受到词频的影响、可能受到子词、大小写等的影响等等。 Gao et al.(2019)和Wang et al.(2020)指出,对于语言建模,使用最大似然训练通常会产生一个各向异性的词嵌入空间。“各向异性”是…

BabaSSL:支持半同态加密算法 EC-ElGamal

01 背 景 随着大数据与人工智能的快速发展,个人隐私数据泄露和滥用时有发生,隐私安全问题也越来越被重视。 国家于 2020 年施行密码法、2021 年施行个人信息保护法,对个人隐私数据和数据安全加密有更高的要求。 因此,隐私计算也…

2022年博客之路总结

今年是不平凡的一年,IT行业 开卷 的一年,今年大多数人 都 因种种原因 被迫换了工作,再次 先感谢CSDN 这个平台,在这里 给自己了一块可以展示自己才华的空间,通过CSDN平台的各项运营数据,让我有幸 拿到了 更…

flv.js播放flv视频

flv.js是FLV视频播放器&#xff0c;纯JS开发&#xff0c;无需Flash。 <!DOCTYPE html> <html><head><meta charset"UTF-8"><meta http-equiv"X-UA-Compatible" content"IEedge"><meta name"viewport"…

【虚幻引擎UE】UE5 制作一个元旦烟花短视频的小案例(使用sequence制作视频案例)

祝愿大家元旦快乐&#xff01; 效果预览 一、创建粒子烟花特效 可以使用现成的Niagara烟花粒子特效&#xff0c;直接跳过这一步。 1、 通过Niagara系统创建粒子特效 选择现有发射器素材。 或者也可新建空白特效&#xff0c;将发射器拖入轨道&#xff08;素材包含闪光、拖…

基于TP6+Uni-app框架开发的多端圈子社区论坛小程序H5系统,带数据库和安装教程

正文&#xff1a; 前台uni-app后台tp6开发的多端圈子社区论坛小程序H5系统,带数据库和安装教程。 系统基于TP6Uni-app框架开发&#xff1b;客户移动端采用uni-app开发&#xff0c;管理后台TH6开发。 系统支持微信公众号端、微信小程序端、H5端、PC端多端账号同步&#xff0c…

CSDN的2022和2023

前言 今天是2022年12月31日&#xff0c;今年的最后一天&#xff0c;年关已至。 又到了&#xff1a;回头看路&#xff0c;低头赶路&#xff0c;抬头望路的时候。 回顾2022 疫情中的2022 今年应该算是疫情的高峰期吧&#xff0c;各种新冠变异株横行&#xff0c;从严控到一夜…

Day845.Fork/Join -Java 并发编程实战

Fork/Join Hi&#xff0c;我是阿昌&#xff0c;今天学习记录的是关于Fork/Join的内容。 线程池、Future、CompletableFuture 和 CompletionService&#xff0c;仔细观察会发现这些工具类都是在帮助站在任务的视角来解决并发问题&#xff0c;而不是让纠缠在线程之间如何协作的…

深度学习:05 卷积神经网络介绍(CNN)

目录 卷积神经网络简介 为什么要用卷积神经网络 网络结构组成 卷积层 卷积计算 卷积核大小 f 边界填充 (p)adding 步长 (s)tride 计算公式 卷积层 激活函数 池化层&#xff08;pooling&#xff09; dropout层 全连接层 卷积神经网络简介 卷积神经网络由一个或多个…

DoIP协议从入门到精通系列——车载网络安全

现代社会慢慢步入数字时代,在这个时代,网络安全已经成为最重要的关注点。自从1980年第一次出现电脑病毒,网络威胁和攻击持续不断,给社会(经济)带来巨大影响。随着汽车的数字化和互联化发展,自然而然会联想到汽车也将为成为黑客攻击的目标。导致的问题除了单纯的不便(攻…

数据结构 | 十大排序超硬核八万字详解【附动图演示、算法复杂度性能分析】

写在前面 2023年的第一篇博客&#xff0c;在这里先祝大家兔年快乐&#x1f430; 本文从学习到搜寻各种资料&#xff0c;整理成博客的形式展现足足花了一个月的时间&#xff0c;慢工出细活&#xff0c;希望本篇文章可以真正带你学懂排序&#xff0c;不再为写排序算法而苦恼 博主…

MQTT协议的工作原理

一、MQTT概述 MQTT由IBM的Andy Stanford-Clark博士和Arcom&#xff08;现为Eurotech&#xff09;的Arlen Nipper于1999年发明。 MQTT 是物联网 &#xff08;IoT&#xff09; 最常用的消息传递协议。MQTT 代表 MQ 遥测传输。该协议是一组规则&#xff0c;用于定义物联网设备如何…

二叉树16:找树左下角的值

主要是我自己刷题的一些记录过程。如果有错可以指出哦&#xff0c;大家一起进步。 转载代码随想录 原文链接&#xff1a; 代码随想录 leetcode链接&#xff1a;513.找树左下角的值 题目&#xff1a; 给定一个二叉树的 根节点 root&#xff0c;请找出该二叉树的 最底层 最左边…