【机器学习】BP神经网络中的链式法则

news2024/9/24 13:16:48

鑫宝Code

🌈个人主页: 鑫宝Code
🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础
💫个人格言: "如无必要,勿增实体"


文章目录

  • BP神经网络中的链式法则
    • 1. 引言
    • 2. 链式法则基础
      • 2.1 什么是链式法则?
      • 2.2 数学表达
    • 3. 链式法则在单层神经网络中的应用
      • 3.1 单层神经网络结构
      • 3.2 前向传播
      • 3.3 反向传播
    • 4. 链式法则在多层神经网络中的应用
      • 4.1 多层神经网络结构
      • 4.2 前向传播
      • 4.3 反向传播
    • 5. 链式法则的矩阵形式
      • 5.1 矩阵形式的前向传播
      • 5.2 矩阵形式的反向传播
    • 6. 链式法则在不同激活函数中的应用
      • 6.1 Sigmoid函数
      • 6.2 Tanh函数
      • 6.3 ReLU函数
    • 7. 链式法则在优化算法中的应用
      • 7.1 梯度下降
      • 7.2 动量法
      • 7.3 Adam算法
    • 8. 链式法则的计算效率
      • 8.1 计算图
      • 8.2 自动微分
    • 9. 链式法则的局限性和挑战
      • 9.1 梯度消失和梯度爆炸
      • 9.2 长期依赖问题
    • 10. 结论
    • 参考文献

BP神经网络中的链式法则

1. 引言

反向传播(Backpropagation,简称BP)算法是神经网络训练中的核心技术,而链式法则则是BP算法的基础。本文将深入探讨BP神经网络中链式法则的原理、应用及其重要性。我们将从基本概念出发,逐步深入到复杂的多层神经网络中的应用,并讨论其在实际工程中的意义。
在这里插入图片描述

2. 链式法则基础

2.1 什么是链式法则?

链式法则是微积分中的一个基本法则,用于计算复合函数的导数。在神经网络中,它允许我们计算损失函数相对于网络中任何参数的梯度。

2.2 数学表达

对于复合函数 f ( g ( x ) ) f(g(x)) f(g(x)),其导数可以表示为:

d d x f ( g ( x ) ) = d f d g ⋅ d g d x \frac{d}{dx}f(g(x)) = \frac{df}{dg} \cdot \frac{dg}{dx} dxdf(g(x))=dgdfdxdg

这就是最基本的链式法则表达式。

3. 链式法则在单层神经网络中的应用

3.1 单层神经网络结构

考虑一个简单的单层神经网络:

  • 输入: x x x
  • 权重: w w w
  • 偏置: b b b
  • 激活函数: σ \sigma σ
  • 输出: y = σ ( w x + b ) y = \sigma(wx + b) y=σ(wx+b)

3.2 前向传播

前向传播过程可以表示为:

z = w x + b z = wx + b z=wx+b
y = σ ( z ) y = \sigma(z) y=σ(z)

3.3 反向传播

假设损失函数为 L L L,我们需要计算 ∂ L ∂ w \frac{\partial L}{\partial w} wL ∂ L ∂ b \frac{\partial L}{\partial b} bL

使用链式法则:

∂ L ∂ w = ∂ L ∂ y ⋅ ∂ y ∂ z ⋅ ∂ z ∂ w \frac{\partial L}{\partial w} = \frac{\partial L}{\partial y} \cdot \frac{\partial y}{\partial z} \cdot \frac{\partial z}{\partial w} wL=yLzywz

∂ L ∂ b = ∂ L ∂ y ⋅ ∂ y ∂ z ⋅ ∂ z ∂ b \frac{\partial L}{\partial b} = \frac{\partial L}{\partial y} \cdot \frac{\partial y}{\partial z} \cdot \frac{\partial z}{\partial b} bL=yLzybz

其中:

  • ∂ L ∂ y \frac{\partial L}{\partial y} yL 是损失函数对输出的梯度
  • ∂ y ∂ z = σ ′ ( z ) \frac{\partial y}{\partial z} = \sigma'(z) zy=σ(z) 是激活函数的导数
  • ∂ z ∂ w = x \frac{\partial z}{\partial w} = x wz=x
  • ∂ z ∂ b = 1 \frac{\partial z}{\partial b} = 1 bz=1

4. 链式法则在多层神经网络中的应用

4.1 多层神经网络结构

考虑一个三层神经网络:

  • 输入层: x x x
  • 隐藏层: h = σ ( W 1 x + b 1 ) h = \sigma(W_1x + b_1) h=σ(W1x+b1)
  • 输出层: y = σ ( W 2 h + b 2 ) y = \sigma(W_2h + b_2) y=σ(W2h+b2)

4.2 前向传播

前向传播过程可以表示为:

z 1 = W 1 x + b 1 z_1 = W_1x + b_1 z1=W1x+b1
h = σ ( z 1 ) h = \sigma(z_1) h=σ(z1)
z 2 = W 2 h + b 2 z_2 = W_2h + b_2 z2=W2h+b2
y = σ ( z 2 ) y = \sigma(z_2) y=σ(z2)

4.3 反向传播

使用链式法则计算梯度:

∂ L ∂ W 2 = ∂ L ∂ y ⋅ ∂ y ∂ z 2 ⋅ ∂ z 2 ∂ W 2 \frac{\partial L}{\partial W_2} = \frac{\partial L}{\partial y} \cdot \frac{\partial y}{\partial z_2} \cdot \frac{\partial z_2}{\partial W_2} W2L=yLz2yW2z2

∂ L ∂ W 1 = ∂ L ∂ y ⋅ ∂ y ∂ z 2 ⋅ ∂ z 2 ∂ h ⋅ ∂ h ∂ z 1 ⋅ ∂ z 1 ∂ W 1 \frac{\partial L}{\partial W_1} = \frac{\partial L}{\partial y} \cdot \frac{\partial y}{\partial z_2} \cdot \frac{\partial z_2}{\partial h} \cdot \frac{\partial h}{\partial z_1} \cdot \frac{\partial z_1}{\partial W_1} W1L=yLz2yhz2z1hW1z1

这里我们可以看到,链式法则允许我们将梯度一层层地传播回去。

5. 链式法则的矩阵形式

在实际应用中,我们通常使用矩阵形式来表示神经网络的计算。链式法则在矩阵形式下仍然适用。

5.1 矩阵形式的前向传播

对于一个隐藏层:

Z = W X + b Z = WX + b Z=WX+b
A = σ ( Z ) A = \sigma(Z) A=σ(Z)

其中 W W W 是权重矩阵, X X X 是输入矩阵, b b b 是偏置向量。

5.2 矩阵形式的反向传播

假设 ∂ L ∂ A \frac{\partial L}{\partial A} AL 已知,我们可以计算:

∂ L ∂ Z = ∂ L ∂ A ⊙ σ ′ ( Z ) \frac{\partial L}{\partial Z} = \frac{\partial L}{\partial A} \odot \sigma'(Z) ZL=ALσ(Z)

∂ L ∂ W = ∂ L ∂ Z X T \frac{\partial L}{\partial W} = \frac{\partial L}{\partial Z} X^T WL=ZLXT

∂ L ∂ b = ∑ i = 1 m ∂ L ∂ Z i \frac{\partial L}{\partial b} = \sum_{i=1}^m \frac{\partial L}{\partial Z_i} bL=i=1mZiL

其中 ⊙ \odot 表示元素wise乘法, m m m 是样本数量。

6. 链式法则在不同激活函数中的应用

不同的激活函数会影响链式法则的具体计算。以下是几个常见激活函数的导数:

6.1 Sigmoid函数

σ ( x ) = 1 1 + e − x \sigma(x) = \frac{1}{1 + e^{-x}} σ(x)=1+ex1
σ ′ ( x ) = σ ( x ) ( 1 − σ ( x ) ) \sigma'(x) = \sigma(x)(1 - \sigma(x)) σ(x)=σ(x)(1σ(x))

6.2 Tanh函数

tanh ⁡ ( x ) = e x − e − x e x + e − x \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} tanh(x)=ex+exexex
tanh ⁡ ′ ( x ) = 1 − tanh ⁡ 2 ( x ) \tanh'(x) = 1 - \tanh^2(x) tanh(x)=1tanh2(x)

6.3 ReLU函数

ReLU ( x ) = max ⁡ ( 0 , x ) \text{ReLU}(x) = \max(0, x) ReLU(x)=max(0,x)
ReLU ′ ( x ) = { 1 if  x > 0 0 if  x ≤ 0 \text{ReLU}'(x) = \begin{cases} 1 & \text{if } x > 0 \\ 0 & \text{if } x \leq 0 \end{cases} ReLU(x)={10if x>0if x0

在使用链式法则时,需要根据具体的激活函数选择相应的导数形式。

7. 链式法则在优化算法中的应用

链式法则不仅用于计算梯度,还在各种优化算法中发挥重要作用。
在这里插入图片描述

7.1 梯度下降

最基本的梯度下降算法使用链式法则计算的梯度来更新参数:

θ = θ − α ∂ L ∂ θ \theta = \theta - \alpha \frac{\partial L}{\partial \theta} θ=θαθL

其中 α \alpha α 是学习率, θ \theta θ 是需要优化的参数。

7.2 动量法

动量法引入了历史梯度信息:

v t = γ v t − 1 + α ∂ L ∂ θ v_t = \gamma v_{t-1} + \alpha \frac{\partial L}{\partial \theta} vt=γvt1+αθL
θ = θ − v t \theta = \theta - v_t θ=θvt

其中 γ \gamma γ 是动量系数。

7.3 Adam算法

Adam算法结合了动量法和自适应学习率:

m t = β 1 m t − 1 + ( 1 − β 1 ) ∂ L ∂ θ m_t = \beta_1 m_{t-1} + (1 - \beta_1) \frac{\partial L}{\partial \theta} mt=β1mt1+(1β1)θL
v t = β 2 v t − 1 + ( 1 − β 2 ) ( ∂ L ∂ θ ) 2 v_t = \beta_2 v_{t-1} + (1 - \beta_2) (\frac{\partial L}{\partial \theta})^2 vt=β2vt1+(1β2)(θL)2
m ^ t = m t 1 − β 1 t \hat{m}_t = \frac{m_t}{1 - \beta_1^t} m^t=1β1tmt
v ^ t = v t 1 − β 2 t \hat{v}_t = \frac{v_t}{1 - \beta_2^t} v^t=1β2tvt
θ = θ − α m ^ t v ^ t + ϵ \theta = \theta - \alpha \frac{\hat{m}_t}{\sqrt{\hat{v}_t} + \epsilon} θ=θαv^t +ϵm^t

在这里插入图片描述
这些优化算法都依赖于通过链式法则计算得到的梯度信息。

8. 链式法则的计算效率

8.1 计算图

在实际应用中,我们通常使用计算图来表示神经网络的计算过程。计算图可以帮助我们更直观地应用链式法则,并提高计算效率。

8.2 自动微分

现代深度学习框架(如TensorFlow和PyTorch)使用自动微分技术,这种技术基于链式法则,但通过智能的图优化和并行计算大大提高了效率。

9. 链式法则的局限性和挑战

9.1 梯度消失和梯度爆炸

在深层网络中,链式法则可能导致梯度消失或梯度爆炸问题。这是因为多个小于1的数相乘会趋近于0,而多个大于1的数相乘会趋近于无穷大。

9.2 长期依赖问题

在处理序列数据时,标准的BP算法难以捕捉长期依赖关系,这部分是由于链式法则在长序列中的累积效应。

10. 结论

链式法则是BP神经网络中的核心概念,它为我们提供了一种系统的方法来计算复杂神经网络中的梯度。通过链式法则,我们可以有效地训练深层神经网络,实现端到端的学习。

尽管链式法则在某些情况下面临挑战,但它仍然是深度学习中不可或缺的工具。随着新技术的发展,如残差连接、门控机制等,我们正在不断克服这些挑战,使神经网络能够学习更复杂的模式和更长期的依赖关系。

理解并掌握链式法则,对于深入理解神经网络的工作原理、设计新的网络结构和优化算法都具有重要意义。作为算法工程师,我们应该不断深化对链式法则的理解,并在实践中灵活运用这一强大工具。

参考文献

  1. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536.
  2. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
  3. Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980.

End

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1989484.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

springboot mybatis plus 固定查询条件及可选查询条件的组合查询,使用QueryWrapper.and()来解决。

1、我们在写查询SQL的时候,经常会碰到,比如,同一个类别下的某一个编号的物料信息,或者是同一批次的物料库存问题等等。 所属类别fid物料编号bm物料批次pc110.01.0220240807110.01.0320240807 210.02.0120240805 2、那么我…

定点数的运算

目录 1.定点数的移位运算 1.1算数移位 数学含义: 规律总结: 1.2逻辑移位 1.3循环移位 不带进位位 带进位位 2.定点数的加减运算 3.定点数的乘除运算 3.1原码 一位乘法 除法 3.2补码 一位乘法 除法 1.定点数的移位运算 1.1算数移位 数学…

org.gitlab4j使用报错问题

报错如上,刚开始报错Caused by: java.lang.NoClassDefFoundError: javax/ws/rs/core/StreamingOutput。 原因:项目是JDK17引起的版本不兼容 解决:升级高版本即可。

4.1 图标资源、光标资源

图标资源 添加资源 添加资源(可视化完成) 注意图标的大小,一个图标文件中,可以有多个不同大小的图标。加载 LoadIcon 是 Windows API 中用于加载图标资源的函数 HICON WINAPI LoadIcon(HINSTANCE hInstance,LPCTSTR lpIconName );参数说明 1.hInstanc…

牛客JS题(二十七)Getter

注释很详细&#xff0c;直接上代码 涉及知识点&#xff1a; class基础用法getter的应用setter的应用 题干&#xff1a; 我的答案 <!DOCTYPE html> <html><head><meta charsetutf-8></head><body><script type"text/javascript&qu…

机器人帮助文档

文章目录 机器交流使用群使用图例1. 查看机器人使用文档2. 直接问问题&#xff08;系统默认AI&#xff09;3. 系统默认AI切换4. 直接问问题&#xff08;指定讯飞星火AI&#xff09;5. 直接问问题&#xff08;指定百度文心AI&#xff09;6. 直接问问题&#xff08;指定谷歌AI&am…

Python的全局变量

我来举个例子 像下面&#xff0c;我把全局变量写在函数外面&#xff0c;导致func函数里得不到变量 正确做法应该是在函数内引入全局变量&#xff0c;利用global关键字 请注意&#xff01;由于1的操作导致全局变量发生改变&#xff0c;可能会影响到其他引用全局变量的地方。这点…

基于统计检验与机器学习研究客户对保险兴趣的因素

1.项目背景 保险单是一种安排&#xff0c;公司承诺为特定的损失、损坏、疾病或死亡提供赔偿保证&#xff0c;以换取支付指定的保费。保费是客户需要定期向保险公司支付的一笔钱&#xff0c;以提供此保证&#xff0c;与医疗保险一样&#xff0c;也有车辆保险&#xff0c;客户每…

【Python】requests获取网络响应的时候,遇到url超过最大重试次数的解决方法

我们在使用requests连接网址后&#xff0c;获取网络响应的时候&#xff0c;有时候可能会遇到这样的问题&#xff1a; 问题&#xff1a; Maxretries exceeded with url: /tags-%E9%A1%B9%E7%9B%AE-5.html(Caused by SSLError(SSLEOFError(8,‘EOFoccurred in violation of prot…

大模型层数过多影响

当层数过多时候&#xff0c;梯度是累乘关系&#xff0c;如100 最后可能超过f16精度 梯度爆炸 后面梯度和权重值特别大 梯度消失 后台梯度和权重趋近于0 梯度合理范围e-6 到 e3 优化方法 1、优化点 乘法改为加法 resnet lstm 2、归一 梯度归一&#xff0c;大于小于阈值…

防范 Active Directory 攻击

关注公众号网络研究观获取更多内容。 Active Directory (AD) 是组织 Windows 网络的核心&#xff0c;可默默协调用户访问、身份验证和安全性。 但您真的了解它的工作原理吗&#xff1f;本博客将揭开 AD 的层层面纱&#xff0c;揭示其核心组件以及它们如何实现集中控制。探索 …

【ARM CoreLink 系列 4.2 -- NIC-400 控制器详细介绍】

请阅读【ARM AMBA 总线 文章专栏导读】 文章目录 NIC-400 TopNIC-400 Terminology(术语介绍)AMBA Slave Interface BlockSwitchDefault SlaveInterface BlockGlobal Programmers ViewAMBA Master interface BlockNIC-400 GPV(Global Programmers View)NIC-400 SwitchNIC-400 …

为什么用代理IP访问不了网站?如何解决?

代理IP可以为用户在访问网站时提供更多的便利性和匿名性&#xff0c;但有时用户使用代理IP后可能会遇到无法访问目标网站的问题。这可能会导致用户无法完成所需的业务要求&#xff0c;给用户带来麻烦。使用代理IP时&#xff0c;您可能会因为各种原因而无法访问您的网站。下面小…

柏林噪声(Perlin Noise)

要获得看起来很酷的实心纹理&#xff0c;大多数人使用某种形式的Perlin噪声。Perlin噪声返回类似下图的噪声。 Perlin噪声的一个关键部分是它是可重复的&#xff1a;它接受一个3D点作为输入&#xff0c;并总是返回相同的随机数字。附近的点返回相似的数字。Perlin噪声的另一个重…

Spacedrive :开源跨平台文件管理器!!【送源码】

项目介绍 Spacedrive 是一款革命性的开源跨平台文件管理器&#xff0c;它采用先进的虚拟分布式文件系统 (VDFS) 技术&#xff0c;为你带来前所未有的文件管理体验。无论是云端服务还是离线硬盘&#xff0c;Spacedrive 都能将它们统一在一个易于使用的界面中&#xff0c;让你轻松…

超声波清洗机哪个牌子的好?推荐四款性价比高的超声波眼镜清洗机

眼镜是现代生活中的必需品&#xff0c;但很多人对如何正确清洁眼镜感到困扰。传统清洁方法可能会在清洗过程中损伤眼镜&#xff0c;比如用普通肥皂或清水清洗时容易划伤镜片。为了解决这个问题&#xff0c;家用眼镜超声波清洗机应运而生。然而&#xff0c;市场上品牌繁多&#…

亲测好用!2024年四大ai智能写作工具推荐!

在快节奏的工作生活中&#xff0c;我一直在寻找能够提升写作效率的工具。经过一番探索&#xff0c;我发现了四款AI智能写作工具。它们不仅极大地提升了我的写作速度&#xff0c;还保证了内容的质量。 笔灵AI写作 链接&#xff1a;https://ibiling.cn 作为一名自媒体人&#…

免费高清图片素材库,我推荐这8个~赶紧收藏

找高清图片素材就上这8 个网站&#xff0c;我强推。免费、付费、商用的素材都能找到&#xff0c;赶紧先收藏起来吧&#xff01; 菜鸟图库 美女图片|手机壁纸|风景图片大全|高清图片素材下载网 - 菜鸟图库 网站主要为新手设计师提供免费素材&#xff0c;这些素材的质量都很高…

CSDN博文中的数学公式显示——LaTeX数学公式一般语法

$MarkDown支持&#xff0c;HTML5文本也是支持$定制的。 (笔记模板由python脚本于2024年08月07日 21:18:36创建&#xff0c;本篇笔记适合初通Python&#xff0c;熟悉六大基本数据(str字符串、int整型、float浮点型、list列表、tuple元组、set集合、dict字典)的coder翻阅) 【学习…

explorer.exe没有注册类

管理员身份进入cmd面板 输入sfc /scannow 进行扫描&#xff0c;会自动修复异常文件 验证100% 后&#xff0c;输入 start explorer.exe 进行验证 这个问题就解决了