各类神经网络学习:(五)LSTM 长短期记忆(上集),结构详解

news2025/3/31 3:40:56
上一篇下一篇
RNN(下集)待编写

LSTM(长短期记忆)

参考知乎文章《人人都能看懂的LSTM介绍及反向传播算法推导(非常详细) - 知乎》,部分图片也进行了引用。

参考视频教程《3.结合例子理解LSTM_哔哩哔哩_bilibili》,举的例子还是比较贴切的。不过反向传播的完整推导,非必要不用深入看。

一、相关知识早知道

  • ————————————————该模型提出的原因是为了解决什么问题的?———————————————

    答:为了解决 R N N RNN RNN

    • 梯度爆炸和梯度消失问题 (尽管激活函数 t a n h tanh tanh 已经在一定程度上缓解了梯度消失和梯度爆炸,但是当连乘次数过多时,依然会有此问题)。
    • 长期依赖捕捉困难问题 R N N RNN RNN 的隐藏状态仅能保留短期历史信息,难以建模长序列中的复杂依赖)。
    • 信息筛选问题 R N N RNN RNN 对历史信息是全部接收的,但是无法筛选出历史信息中真正有用的内容,间接导致了前两个问题)。

  • ————————————为什么 L S T M \pmb{LSTM} LSTM 相较于 R N N \pmb{RNN} RNN 能缓解梯度爆炸和梯度消失?———————————

    答:首先梯度存在于反向传播中。 R N N RNN RNN 的前向传播是连乘式结构,这就导致其反向传播也是连乘式结构,在反向传播过程中, R N N RNN RNN 的梯度要么始终大于 1 1 1 ,要么始终小于 1 1 1 ,连乘时便会轻而易举地引起梯度爆炸和梯度消失(是针对较远时间步的梯度来说)。而在 L S T M LSTM LSTM 中,由于其独特的多门结构,可以使得导数值可以在 1 1 1 上下浮动(上一时间步的梯度大于 1 1 1 ,下一时刻的梯度也可能小于 1 1 1 ,连乘时就不至于过大或过小)。并且通过对多个门结构参数的学习,可以实现信息筛选,来决定何时让梯度消失,何时保持梯度(也就是所谓的梯度截断)。


  • ———————————————————— L S T M \pmb{LSTM} LSTM 的缺点有哪些?———————————————————

    答:尽管 L S T M LSTM LSTM 显著优于 R N N RNN RNN ,但仍存在以下问题:

    • 计算复杂度高 :三个门控结构引入更多参数,训练耗时较长。
    • 长序列性能衰减 :处理极长序列(如数万步)时仍可能出现记忆衰退。
    • 超参数敏感 :初始化策略和门控权重需精细调优,否则易导致训练不稳定。
    • 参数多,容易造成过拟合
    • 无法并行计算 :每个时间步需依赖前序结果,影响处理效率(后续的 T r a n s f o r m e r Transformer Transformer 解决了这个问题)。
    • 可解释性 一直是个难点,简单来说就是很难完全说清楚为什么内部结构这样设计,内部结构复杂使其决策逻辑难以被直观解释。

二、结构图

对比传统 R N N RNN RNN L S T M LSTM LSTM 的突出特点是多了个记忆细胞,能选择性地保留之前和当下的语义信息。

1)整体结构图

在这里插入图片描述

L S T M LSTM LSTM 网络中的 σ \sigma σ 就是 s i g m o i d sigmoid sigmoid 函数。它在这里也被叫做 “门单元” ,因为 s i g m o i d sigmoid sigmoid 函数的值为 [ 0 , 1 ] [0,1] [0,1] ,类似阀门,开的口大进的就多,开的口小进的就少。

2)单个时刻结构图

在这里插入图片描述

其内部包含四个网络层(其中三个门单元,带 σ \sigma σ 的就是门),分别是:遗忘门、更新门、细胞状态更新层、输出门。

后续符号提示: ⊙ ⊙ (向量或矩阵的对应元素相乘)。

x t \large x_t xt 尺寸为 m × 1 m×1 m×1 h t − 1 \large h_{t-1} ht1 尺寸为 n × 1 n×1 n×1 ,则 C t − 1 C_{t-1} Ct1 尺寸为 n × 1 n×1 n×1

①遗忘门:

在这里插入图片描述

公式:
f t = σ ( W h f ⋅ h t − 1 + W x f ⋅ x t + b f ) = σ ( W f ⋅ [ h t − 1 , x t ] + b f ) \large f_t=\sigma(W_{hf}·h_{t-1}+W_{xf}·x_t+b_f)=\sigma(W_f·[h_{t-1},x_t]+b_f) ft=σ(Whfht1+Wxfxt+bf)=σ(Wf[ht1,xt]+bf)
f t \large f_t ft :我叫它 “遗忘矩阵” ,由 x t \large x_t xt h t − 1 \large h_{t-1} ht1 计算而来, σ \large \sigma σ 函数使 f t \large f_t ft 的元素处于 0 ∼ 1 0\sim1 01 ,使其对 C t − 1 \large C_{t-1} Ct1 具有遗忘功能, 1 1 1 表示 “完全接受”, 0 0 0 表示 “完全忽略”。 f t \large f_t ft 的尺寸和 h t − 1 \large h_{t-1} ht1 C t − 1 \large C_{t-1} Ct1 一样,同为 n × 1 n×1 n×1 ------------------------则可推出参数 W h f \large W_{hf} Whf 尺寸为 n × n n×n n×n W x f \large W_{xf} Wxf 尺寸为 n × m n×m n×m b f \large b_{f} bf 尺寸为 n × 1 n×1 n×1

②输入门:

在这里插入图片描述

公式:
i t = σ ( W h i ⋅ h t − 1 + W x i ⋅ x t + b i ) = σ ( W i ⋅ [ h t − 1 , x t ] + b i ) C t ~ = t a n h ( W h C ⋅ h t − 1 + W x C ⋅ x t + b C ) = t a n h ( W C ⋅ [ h t − 1 , x t ] + b C ) \large i_t=\sigma(W_{hi}·h_{t-1}+W_{xi}·x_t+b_i)=\sigma(W_i·[h_{t-1},x_t]+b_i)\\ \large \tilde{C_t}=tanh(W_{hC}·h_{t-1}+W_{xC}·x_t+b_C)=tanh(W_C·[h_{t-1},x_t]+b_C) it=σ(Whiht1+Wxixt+bi)=σ(Wi[ht1,xt]+bi)Ct~=tanh(WhCht1+WxCxt+bC)=tanh(WC[ht1,xt]+bC)
这里的 C t ~ \large \tilde{C_t} Ct~ 代表的是此时刻生成的新记忆,只不过是初始版。

这里的 i t \large i_t it :我叫它 “新记忆筛选矩阵” , 元素均处于 0 ∼ 1 0\sim1 01 ,使其对 C t ~ \large \tilde{C_t} Ct~ 具有筛选功能, 1 1 1 表示 “完全通过”, 0 0 0 表示 “完全忽略”。

i t \large i_t it 的尺寸为 n × 1 n×1 n×1 C t ~ \large \tilde{C_t} Ct~ 的尺寸为 n × 1 n×1 n×1 ------------------------则可推出参数 W h i 、 W h C \large W_{hi}、W_{hC} WhiWhC 尺寸为 n × n n×n n×n W x i 、 W x C \large W_{xi}、W_{xC} WxiWxC 尺寸为 n × m n×m n×m b i 、 b C \large b_{i}、b_{C} bibC 尺寸为 n × 1 n×1 n×1

③细胞状态更新

在这里插入图片描述

公式:
C t = f t ⊙ C t − 1 + i t ⊙ C t ~ \large C_t=f_t⊙C_{t-1}+i_t⊙\tilde{C_t} Ct=ftCt1+itCt~
这里的 C t \large C_t Ct 便是最终要输出的新记忆。

新记忆由经过遗忘的旧记忆,以及经过筛选的原始新记忆,相加而得到。

C t \large C_t Ct 的尺寸为 n × 1 n×1 n×1

④输出门:

在这里插入图片描述

公式:
o t = σ ( W h o ⋅ h t − 1 + W x o ⋅ x t + b o ) = σ ( W o ⋅ [ h t − 1 , x t ] + b o ) h t = o t ⊙ t a n h ( C t ) \large o_t=\sigma(W_{ho}·h_{t-1}+W_{xo}·x_t+b_o)=\sigma(W_o·[h_{t-1},x_t]+b_o)\\ \large h_t=o_t⊙tanh(C_t) ot=σ(Whoht1+Wxoxt+bo)=σ(Wo[ht1,xt]+bo)ht=ottanh(Ct)
这里的 h t h_t ht 便是隐层状态输出,由新记忆 C t \large C_t Ct 通过 t a n h tanh tanh 函数调整到 − 1 ∼ 1 -1\sim1 11 之间,再与 o t o_t ot 逐元素相乘得到。

这里的 o t o_t ot :我叫它 “隐层状态输出提炼矩阵” ,元素均处于 0 ∼ 1 0\sim1 01 ,使其对 C t \large C_t Ct 具有提炼功能, 1 1 1 表示 “完全通过”, 0 0 0 表示 “完全忽略”。

C t \large C_t Ct 中提炼出 h t h_t ht ,是因为细胞状态 C t \large C_t Ct 存储了经过遗忘门和输入门筛选后的所有长期信息(如历史趋势或主题),但并非所有内容都需直接传送给后续网络,通过提炼,仅保留与当前任务相关的部分。并且经过 t a n h tanh tanh 函数压缩之后,可以避免数值爆炸,并增强非线性表达能力。

3)单个时刻公式图

在这里插入图片描述

在这里插入图片描述

4)补充:

传统 R N N RNN RNN 的同步多对多结构图:

在这里插入图片描述

三、损失函数及反向传播

想要深入研究的,就参考知乎那篇文章,以及视频的最后一个分集(可以稍稍看看矩阵求导,对反向传播的计算有帮助)。

只是想用的,知道使用的是链式法则、梯度下降法即可。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2323023.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

计算机网络-2 物理层

【考纲内容】 (一)通信基础 信道、信号、带宽、码元、波特、速率、信源与信宿等基本概念; 奈奎斯特定理与香农定理;编码与调制; 电路交换、报文交换与分组交换;数据报与虚电路① 视频讲解 (二…

Redis集群哨兵相关面试题

目录 1.Redis 主从复制的实现原理是什么? 详解 补充增量同步 replication buffer repl backlog buffer 2.Redis 主从复制的常见拓扑结构有哪些? 3.Redis 复制延迟的常见原因有哪些? 4.Redis 的哨兵机制是什么? 主观下线和客观下线 哨兵leader如何选出来的&#x…

Shopify Checkout UI Extensions

结账界面的UI扩展允许应用开发者构建自定义功能,商家可以在结账流程的定义点安装,包括产品信息、运输、支付、订单摘要和Shop Pay。 Shopify官方在去年2024年使用结账扩展取代了checkout.liquid,并将于2025年8月28日彻底停用checkout.liquid…

MOSN(Modular Open Smart Network)-04-TLS 安全链路

前言 大家好,我是老马。 sofastack 其实出来很久了,第一次应该是在 2022 年左右开始关注,但是一直没有深入研究。 最近想学习一下 SOFA 对于生态的设计和思考。 sofaboot 系列 SOFAStack-00-sofa 技术栈概览 MOSN(Modular O…

Softmax 回归 + 损失函数 + 图片分类数据集

Softmax 回归 softmax 回归是机器学习另外一个非常经典且重要的模型,是一个分类问题。 下面先解释一下分类和回归的区别: 简单来说,分类问题从回归的单输出变成了多输出,输出的个数等于类别的个数。 实际上,对于分…

【C++】内存模型分析

在 C 语言中,程序运行时的内存通常被划分为以下几个区域: 代码区(Text Segment)常量区(Constant Segment)全局/静态区(Data Segment,包含静态数据段和 BSS 段)堆区&…

Vue2+OpenLayers携带请求头加载第三方瓦片数据

目录 一、案例截图 二、安装OpenLayers库 三、代码实现 一、案例截图 在对接一些第三方GIS地图的时候,需要携带请求头来验证身份,从而获取相应的瓦片数据,这时候我们需要改造一下WMTS服务的调用方式,效果如图所示: 二、安装OpenLayers库 npm install ol 三、代码实现…

智能汽车图像及视频处理方案,支持视频实时拍摄特效能力

在智能汽车日新月异的今天,美摄科技作为智能汽车图像及视频处理领域的先行者,凭借其卓越的技术实力和前瞻性的设计理念,为全球智能汽车制造商带来了一场视觉盛宴的革新。美摄科技推出智能汽车图像及视频处理方案,一个集高效性、智…

数据结构--顺序表(实现增删改查)

三个文件(Mytest.c 、MySeqList.c 、 MySeqList.h) Mytest.c测试函数 MySeqList.c 函数定义 MySeqList.h函数声明 增删改查的步骤: 初始化 增加元素 • 尾插:先检查顺序表空间是否足够,若不足则进行扩容&#x…

【android】补充

3.3 常用布局 本节介绍常见的几种布局用法,包括在某个方向上顺序排列的线性布局,参照其他视图的位置相对排列的相对布局,像表格那样分行分列显示的网格布局,以及支持通过滑动操作拉出更多内容的滚动视图。 3.3.1 线性布局Linea…

说说MyBatis一、二级缓存和Spring一二级缓存有什么关系?

大家好,我是锋哥。今天分享关于【说说MyBatis一、二级缓存和Spring一二级缓存有什么关系?】面试题。希望对大家有帮助; 说说MyBatis一、二级缓存和Spring一二级缓存有什么关系? 1000道 互联网大厂Java工程师 精选面试题-Java资源…

蓝桥杯题型分布2

蓝桥杯 蓝桥杯题型分类2素数孪生素数素数个数朴素筛法求素数线性筛法求素数 因数分解试除法分解质因数 等差素数列梅森素数组素数素数环找素数(分段筛)连续素数和小明的素数对疑似素数质数拆分纯质数超级质数质数日期质数游戏2魔法阵的能量阿坤老师切割年糕阶乘分解…

vue响应式原理剖析

一、什么是响应式? 我们先来看一下响应式意味着什么?我们来看一段代码: m有一个初始化的值,有一段代码使用了这个值; 那么在m有一个新的值时,这段代码可以自动重新执行; let m = 20 console.log(m) console.log(m * 2)m = 40上面的这样一种可以自动响应数据变量的代码机…

Element UI实现表格全选、半选

制作如图所示的表格全选、半选&#xff1a; 父组件 <template><div id"app"><SelectHost :hostArray"hostArray" /></div> </template><script> import SelectHost from ./components/SelectHost.vue export default…

如何使用动作捕捉系统训练人形机器人

随着人形机器人变得越来越先进&#xff0c;使用动作捕捉系统教会它们如何像人类一样移动成为了人形机器人领域正在研究的全新方向。本文探讨了如何使用Xsens技术捕捉精确的人类运动数据&#xff0c;使机器人能够通过人工智能和机器学习安全高效地学习、适应和执行复杂任务。 近…

内网渗透技术 Docker逃逸技术(提权)研究 CSMSF

目录 如何通过上传的webshell判断当前环境是否是物理环境还是Docker环境 方法一&#xff1a;检查文件系统 方法二&#xff1a;查看进程 方法三&#xff1a;检查网络配置 方法四&#xff1a;检查环境变量 方法五&#xff1a;检查挂载点 总结 2. 如果是Docker环境&#x…

生活电子常识——cmd不能使用anaconda的python环境,导致输入python打开应用商店

前言 电脑已经安装了anaconda,从自带的Anaconda Prompt (Anaconda3)中是可以识别python环境的&#xff0c;然而切换到cmd时&#xff0c;突然发现cmd中无法识别anaconda的python环境&#xff0c;竟然打开了应用商店让我安装Python&#xff0c;这当然是不对的。 解决 这是因为…

如何在linux中部署dns服务 主备dns (详细全过程)

环境centos 7.9 主DNS&#xff1a;192.168.60.131 备DNS&#xff1a;192.168.60.134 我以 chenxingyu0.com 指向 192.168.60.200为例 首先是主dns #!/bin/bash# 检查是否为 root 用户 if [ "$(id -u)" ! "0" ]; thenecho "请使用…

word写latex-Mathtype安装成功-方法

MathType安装报错 想在word写latexMathtype, 网上搜教程安装&#xff0c; 结果一直报错一直删重来&#xff0c; 一直报错一直删了重来 一直报错一直删了重来来来&#xff0c; 就这么反反复复一直不好 网上的教程都是教你不是删mathtype, 就是删office 时代变了啊&#x…