2022.11.20 学习周报

news2024/12/28 3:46:17

文章目录

  • 摘要
  • 论文阅读
    • 1.题目
    • 2.摘要
    • 3.网络结构
      • 3.1 网络示意图
      • 3.2 网络特点
    • 4.问题的提出
    • 5.正则化带有LSTM单元的RNNs
      • 5.1 LSTM单元
      • 5.2 具有 Dropout 的正则化
    • 6.实验
      • 6.1 语音建模
      • 6.2 语音识别
      • 6.3 机器翻译
      • 6.4 图像字幕生成
    • 7.结论
  • 深度学习
    • Pytorch实现简单的RNN
  • 总结


摘要

This week, I read a paper on recurrent neural networks, it is mentioned in the paper that although Dropout has achieved good results in regularizing neural networks, it does not perform well in recurrent neural networks, and Overfitting will occur. Therefore, the paper proposes solutions, Dropout is not used in the structure of circular connection in the network, this method solves the above problems and improves the performance of the program. The paper shows its results in three areas, and also proves that the idea is feasible. Finally, I try to implement a simple recurrent neural network with code.

本周,我阅读了一篇关于循环神经网络的论文,论文中提到虽然Dropout对神经网络进行正则化取得不错效果,但是在循环神经网络中表现不佳,并会出现过拟合现象。因此论文中提出了解决方法,对网络中没有在循环连接的结构中使用Dropout,这个方法解决上面的问题,并且提高程序的性能。论文在3个领域中展示了自己的结果,并且也证实了想法是切实可行的。最后,我尝试用代码去实现简单的循环神经网络。


论文阅读

1.题目

文献链接:RECURRENT NEURAL NETWORK REGULARIZATION

2.摘要

We present a simple regularization technique for Recurrent Neural Networks (RNNs) with Long Short-Term Memory (LSTM) units. Dropout, the most successful technique for regularizing neural networks, does not work well with RNNs and LSTMs. In this paper, we show how to correctly apply dropout to LSTMs, and show that it substantially reduces overfitting on a variety of tasks. These tasks include language modeling, speech recognition, image caption generation, and machine translation.

3.网络结构

3.1 网络示意图

RNN是一类用于处理序列数据的神经网络,其中包括输入层、隐藏层、输出层,通过激活函数控制输出,层与层之间通过权值连接。如下图所示,一个RNN的结构图,从图中可以发现此结构的循环体现在隐藏层,并且箭头连接上都带有权值。
在这里插入图片描述
其中:x(t):表示t时刻的输入,o(t):表示t时刻的输出,s(t):表示t时刻的记忆。

RNN的基础公式:s(t) = f(U * x(t) + w * s(t-1))
RNN通过当前时刻的记忆s(t)去预测下一个词出现的概率,因此运用softmax去预测每个词出现的概率,但预测不能直接用一个矩阵来预测,需要带一个权重矩阵V,用公式表示为:o(t) = softmax(V * s(t))

3.2 网络特点

1)权值共享,图中的W、U和V全部相同。
2)前面的输出会影响到后面的输出,因此适合处理序列数据。
3)损失是随着序列的推进而不断积累的。

4.问题的提出

问题:Dropout是使神经网络正则化最成功的技术,但在RNN中表现不佳,并且在比较大的RNN网络中,常常出现过拟合现象。

解决方案:Dropout在RNN中表现不佳的原因是循环增大了噪声,而该噪声会对学习效果产生不利影响的问题。于是论文中提出了一个使用dropout的技巧,通过在RNN的一些子集连接中使用dropout来解决这个问题。

5.正则化带有LSTM单元的RNNs

5.1 LSTM单元

RNN动态地描述了之前状态到当前状态的隐藏转变,可以用以下函数形式表示:在这里插入图片描述
在经典的RNNs网络中,该函数表达如下形式;
在这里插入图片描述
LSTM具有复杂的动态特性,可以记住一定数量步长的的记忆信息,同时使得上述过程复杂化。长期的记忆信息在一个存储单元矢量中,表示为CtL∈Rn,因此LSTM的结构可以由以下方程表示:
在这里插入图片描述

5.2 具有 Dropout 的正则化

如下图所示,LSTM的结构表示:
在这里插入图片描述
论文提出解决方案的突破点是没有在循环连接的结构中使用Dropout,因为有循环连接结构中不适用Dropout,因此方程被修改为以下形式:
在这里插入图片描述
从下图中,我可以知道虚线表示使用了Dropout,实线表示没有使用Dropout:
在这里插入图片描述
论文中采用的解决方式使得RNN之间的信息传递,数据计算更加具有鲁棒性,同时也保证了数据之间的相关性和完整性。从下图中可以看到,信息从 t-2 步流向到 t+2 步中,实线表示信息数据的流向。
在这里插入图片描述

6.实验

论文中提出在三个领域展示自己的实验成果:语言建模、语音识别、机器翻译和图像字幕生成。

6.1 语音建模

在Penn Tree Bank数据集Marcus等人的基础上进行了单词级预测实验。将以前的结果与论文中LSTM进行了比较,结果如下所示:
在这里插入图片描述

6.2 语音识别

声学建模是将声学信号映射到单词序列的关键组件,因为它对p(st|X)进行建模,其中st是时间t的语音状态,而X是声学观测。通过研究表明,Dropout提高了LSTM的帧精度,结果如下所示:
在这里插入图片描述

6.3 机器翻译

论文中将机器翻译问题表述为一个语言建模任务,其中训练了LSTM为源句子的正确翻译分配高概率。通过研究表明,Dropout提高了LSTM的翻译性能,结果如下所示:
在这里插入图片描述

6.4 图像字幕生成

将Dropout变体应用于Vinyals等人的图像字幕生成模型,结果表明相对于不使用Dropout,Dropout是有帮助的,但是使用集成消除了Dropout所获得的增益。结果如下所示:
在这里插入图片描述

7.结论

论文中提出一种将Dropout应用于LSTM简单的方法,该方法可以使在不同领域的几个问题的性能得到大幅提高。这个方法对于RNNs很有用,实验结果表明Dropout可以提高各种应用程序的性能。

深度学习

Pytorch实现简单的RNN

参考链接:https://blog.csdn.net/qq_41775769/article/details/121707309

  1. 通过 PyTorch 内置的 torch.nn.RNNCell 方法实现一个简单的单隐藏循环神经网络:
    1 ) 初始化参数
import torch
from torch import nn

# 初始化参数
input_size = 4  # 输入层特征维度
hidden_size = 2  # 隐藏层特征维度
batch_size = 5  # 批量大小
seq_len = 3  # 序列长度

2)创建网络模型

class RNNCell(nn.Module):
    def __init__(self, input_size, hidden_size):
        super(RNNCell, self).__init__()
        self.rnn = nn.RNNCell(
            input_size=input_size,
            hidden_size=hidden_size,
        )

    def forward(self, x, y):
        out = self.rnn(x, y)
        return out


net = RNNCell(input_size, hidden_size)

3)我们需要通过循环的方式将多个 RNNCell 连接起来,构成一个序列长度为 3 的单隐藏循环神经网络。
其中:初始化第一个隐藏层单元全部设置为0

dataset = torch.randn(seq_len, batch_size, input_size)
hidden = torch.zeros(batch_size, hidden_size)

for index, input in enumerate(dataset):
    print("=" * 25, index, "=" * 25)
    print("Input Size:", input.shape)
    print(input)

    hidden = net(input, hidden)
    print("outputs size:", hidden.shape)
    print(hidden)

4)输出结果如下:

========================= 0 =========================
Input Size: torch.Size([5, 4])
tensor([[-0.4355, -0.8889, -0.7113, -1.7701],
        [ 0.7077, -0.5906, -0.7883, -0.6755],
        [ 0.2374,  0.9325, -2.8647, -0.4067],
        [-1.9673, -1.0559, -1.4416,  0.2632],
        [-0.9249, -1.2202, -1.2100,  0.6101]])
outputs size: torch.Size([5, 2])
tensor([[-0.9052, -0.2139],
        [ 0.0105, -0.6293],
        [ 0.6009,  0.2832],
        [-0.8218,  0.4057],
        [-0.4313, -0.2500]], grad_fn=<TanhBackward0>)
========================= 1 =========================
Input Size: torch.Size([5, 4])
tensor([[-0.9352, -0.6076, -0.1785, -0.9232],
        [ 1.1922,  2.1866,  0.7483,  1.9199],
        [-0.1916, -0.7159,  1.5545, -1.1090],
        [-0.2615,  0.5862,  0.3292, -2.8022],
        [ 0.2399,  0.6184, -1.4309, -0.4018]])
outputs size: torch.Size([5, 2])
tensor([[-0.8108,  0.0502],
        [ 0.9996,  0.6874],
        [-0.4933, -0.1337],
        [-0.8944,  0.1895],
        [ 0.5667,  0.1658]], grad_fn=<TanhBackward0>)
========================= 2 =========================
Input Size: torch.Size([5, 4])
tensor([[ 9.1031e-01,  3.0937e-01, -5.6861e-01,  1.6473e+00],
        [ 2.2319e-01,  2.4434e-01,  1.7937e+00, -3.8823e-02],
        [-5.2079e-01, -1.6724e+00,  7.8306e-01,  1.5158e+00],
        [ 7.9093e-01,  3.8346e-01,  5.7846e-01,  1.3453e+00],
        [ 6.4528e-01, -1.0996e+00,  1.7943e+00,  1.2756e-03]])
outputs size: torch.Size([5, 2])
tensor([[ 0.9637, -0.5961],
        [ 0.7423,  0.0756],
        [ 0.1905, -0.6469],
        [ 0.9485, -0.5378],
        [ 0.4275, -0.6734]], grad_fn=<TanhBackward0>)
  1. 通过 PyTorch 内置的 torch.nn.RNN 方法实现一个多层循环神经网络:
    1 ) 初始化参数
import torch
from torch import nn

# 初始化参数
input_size = 4  # 输入层特征维度
hidden_size = 2  # 隐藏层特征维度
batch_size = 5  # 批量大小
seq_len = 6  # 序列长度
num_layers = 3  # 隐藏层的数目

2)创建网络模型

class RNN(nn.Module):
    def __init__(self, input_size, hidden_size, num_layers):
        super(RNN, self).__init__()
        self.rnn = nn.RNN(
            input_size=input_size,
            hidden_size=hidden_size,
            num_layers=num_layers
        )

    def forward(self, x, y):
        r_out, h_n = self.rnn(x, y)
        return r_out, h_n


net = RNN(input_size, hidden_size, num_layers)

3)实现多层循环神经网络模型

inputs = torch.randn(seq_len, batch_size, input_size)
h0 = torch.zeros(num_layers, batch_size, hidden_size)
out, hidden = net(inputs, h0)
print("Output size:", out.shape)
print("Output:", out)
print("Hidden size:", hidden.shape)
print("Hidden:", hidden)

4)输出结果如下:

Output size: torch.Size([6, 5, 2])
Output: tensor([[[-0.2231, -0.6859],
         [-0.2436, -0.6917],
         [-0.1823, -0.6649],
         [-0.1846, -0.6672],
         [-0.2742, -0.7015]],

        [[ 0.2740, -0.7958],
         [ 0.2787, -0.7967],
         [ 0.2588, -0.7934],
         [ 0.2983, -0.7813],
         [ 0.2941, -0.7951]],

        [[-0.0353, -0.8764],
         [-0.0508, -0.8788],
         [ 0.0950, -0.8508],
         [-0.0125, -0.8695],
         [-0.0321, -0.8745]],

        [[ 0.3087, -0.8336],
         [ 0.2564, -0.8476],
         [ 0.1196, -0.8666],
         [ 0.1984, -0.8579],
         [ 0.2961, -0.8363]],

        [[-0.0143, -0.8798],
         [ 0.1162, -0.8589],
         [ 0.1314, -0.8662],
         [ 0.1592, -0.8547],
         [ 0.0259, -0.8739]],

        [[ 0.3072, -0.8344],
         [ 0.1133, -0.8684],
         [ 0.2111, -0.8481],
         [ 0.0733, -0.8739],
         [ 0.2018, -0.8586]]], grad_fn=<StackBackward0>)
Hidden size: torch.Size([3, 5, 2])
Hidden: tensor([[[-0.8294,  0.9059],
         [-0.3150, -0.5678],
         [-0.8449,  0.9023],
         [-0.1080, -0.9393],
         [ 0.3210, -0.9623]],

        [[ 0.7452,  0.5128],
         [ 0.7111,  0.7616],
         [ 0.7437,  0.5205],
         [ 0.7163,  0.7915],
         [ 0.7727,  0.7361]],

        [[ 0.3072, -0.8344],
         [ 0.1133, -0.8684],
         [ 0.2111, -0.8481],
         [ 0.0733, -0.8739],
         [ 0.2018, -0.8586]]], grad_fn=<StackBackward0>)

总结

RNN的特点是给模型一个记忆的功能,储存上一次节点的输出结果,让之后每一步的输出对于前面的输入有关,因此就算是同样的输入集合,只要改变其输入序列,输出结果就会完全不一样。对于随着时间变化的数据,会常使用到RNN,但RNN也存在一些问题,随着时序长度变长,RNN的深度也会变深,这就会导致出现梯度爆炸和梯度消失的问题。本周只是简单地学习RNN,下周会进一步深入学习RNN循环神经网络。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/21986.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

总账科目 前台操作关事务代码及操作要点

目录 1、维护会计科目相关代码及要点 2、公司代码中的科目参数详解 1、维护会计科目相关代码及要点 事务代码&#xff1a;FSP0 在科目表中维护科目 操作例子&#xff1a;创建1001010100 现金-人民币 及40010001实收资本. 点保存后成功展示如下图 注意&#xff0c;后台必须的…

treeSelect树组件设置父节点禁用

前言&#xff1a; 项目开发中需求方提了这样一个需求&#xff1a;下拉框数据是树形结构&#xff0c;但父节点禁止点选&#xff0c;只能点击子节点。毫无疑问&#xff0c;选用的是 ant design vue 组件库的 treeSelect 组件。但该组件默认每一级节点都可以进行选择&#xff0c;…

Vagrant+VirtualBox快速搭建Linux环境

VagrantVirtualBox快速搭建Linux环境虚拟机Oracle VM VirtualBoxVMware虚拟机的选择Vagrant介绍Vagrant安装centos7虚拟机固定ip配置允许账号密码登录Xshell 连接Vagrant生成的虚拟机虚拟机 虚拟机&#xff08;Virtual Machine&#xff09;指通过软件模拟的具有完整硬件系统功…

通过docker部署grafana和mysql

1. 简介2. 网络设置 - 2.1 docker网络设置 - 2.2 防火墙设置3. MySQL - 3.1 启动MySQL - 3.2 配置mysql - 3.3 创建只读用户 - 3.4 创建数据库4. Grafana - 4.1 启动Grafana - 4.2 配置数据源 - 4.3 dashboard与panel5. 参考 1. 简介 grafana是一个数据可视化程序, 可通过浏览…

python gdal geopandas basemap cartopy安装

python彻底解决Basemap cartopy geopandas 安装问题 Basemap cartopy geopandas rasterio这几个库存在一定的依赖关系&#xff0c;由于环境的变化 很可能哪天不知道就报错了&#xff1a; 版本不一致&#xff0c;运行也可能报错&#xff0c;如GDAL3.0的主要变化在于对空间参考…

13. PyQt5实现多页面切换之QTabWidget

PyQt5实现多页面切换之QTabWidget QTabWidget 类直接继承自 QWidget。该类提供了一个选项卡栏(QTabBar)和一个相应的页面区域&#xff0c;用于显示与每个选项卡相对应的页面。 与 QStackedLayout 布局原理相同&#xff0c;只有当前页面(即可见页面)是可见的&#xff0c;所有其他…

Flutter 动态更改应用程序启动图标

Flutter 动态更改应用程序启动图标 前言 在这篇文章中&#xff0c;我们将讨论如何在运行时在我们的 flutter 应用程序中动态更改多个应用程序启动器图标。 依赖包 一个用于动态更改移动平台上应用程序图标 flutter 插件。 https://pub.dev/packages/flutter_dynamic_icon 正文 …

zk客户端连接关闭服务端,查看znode(重补早期的学习记录)

前言:之前早期学习记录没有发布成功,丢在草稿里了,今天看到重新补一下。用作学习记录 启动zookeeper ./zkServer.sh start 连接客户端 ./zkCli.sh 后面不需参数,直接回车 回车后,这里有个watcher事件,已连接上localhost端口是默认端口2181 查看有什么命令可用 help 查…

C++类与动态内存分配

11.10 类与动态内存分配 通常&#xff0c;最好是在程序运行时(而不是编译时)确定诸如使用多少内存等问题。对于在对象中存储姓名来说&#xff0c;通常的C方法是&#xff0c;在类构造函数中使用new运算符在程序运行时分配所需的内存。为此&#xff0c;通常的方法是使用string类…

轻松解决VS配置OpenCV环境

一、OpenCV配置 1.下载OpenCV 点击进入下载OpenCV的官网界面 这里以Windows为例&#xff0c;其他同理。&#xff08;可直接下载最新&#xff09; 2.提取OpenCV 在这里浅说一句&#xff0c;为了方便环境配置文件管理&#xff0c;可以把所有关于环境配置的文件夹都放到一个叫e…

周杰伦在某手、腾格尔在某音同时开线上演唱会,八点开始谁流量高

周杰伦和腾格尔&#xff0c;都是中国华语乐坛的风云人物&#xff0c;两个人的江湖地位&#xff0c;一时之间很难分出仲伯。既然两位都是音乐界的老前辈&#xff0c;他们也准备开启历史之先河&#xff0c;两个人的线上演唱会都计划在今晚的八点开始。 虽然都是在今晚八点开启&am…

【微服务解耦之事件启动】Spring Boot 解耦之事件驱动

一、前言 简介&#xff1a; 在项目实际开发过程中&#xff0c;我们有很多这样的业务场景&#xff1a;一个事务中处理完一个业务逻辑后需要跟着处理另外一个业务逻辑&#xff0c;伪码大致如下&#xff1a; Service public class ProductServiceImpl {...public void saveProdu…

【FreeSwitch开发实践】外呼线路电话收不到回铃音问题的解决

✨ 博客主页&#xff1a;小小马车夫的主页 ✨ 所属专栏&#xff1a;FreeSwitch开发实践 ✨ 专栏介绍&#xff1a;主要介绍博主在实际项目中使用FreeSwitch开发外呼类项目的一些经验心得&#xff0c;主要涉及FreeSwitch的基本安装编译、基本配置、ESL、WSS、录音、自定义模块、m…

从URL输入到页面展现到底发生什么?

从开发&运维角度方面来看&#xff0c;总体来说分为以下几个过程&#xff1a; DNS 解析:将域名解析成 IP 地址TCP 连接&#xff1a;TCP 三次握手发送 HTTP 请求服务器处理请求并返回 HTTP 报文浏览器解析渲染页面断开连接&#xff1a;TCP 四次挥手 一、什么是URL&#xff…

[附源码]java毕业设计书店网站论文

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

如何从0到1实现一个基于bitcask的kv存储引擎

愿景 ​ 今年大部分业余时间都在nutsdb的开源贡献上&#xff0c;nutsdb是基于bitcask模型实现的持久化存储引擎&#xff0c;提供了诸如list&#xff0c;set等多种丰富的数据结构。近来很多小伙伴&#xff0c;其中也有一些我的好朋友陆陆续续加入到这个项目上来。为了帮助小伙伴…

pytorch中Dataset和Dataloader的使用

1.datasets下载数据集 root :代表着路径&#xff0c;表示现存或者准备存储的地方。 train :代表是否下载训练数据集&#xff0c;如果否的话就下载测试数据集 transform: 如果想对数据集进行什么变化&#xff0c;在这里进行操作 target_transform:跟上面的一样 download:如果是T…

ORB-SLAM2 ---- Tracking::CreateInitialMapMonocular函数

目录 1.函数作用 2.函数解析 2.1 调用函数解析 2.2 Tracking::CreateInitialMapMonocular函数总体思路 2.2.1 代码 2.2.2 总体思路解析 2.3 MapPoint::ComputeDistinctiveDescriptors函数解析 2.3.1 函数作用 2.3.2 代码 2.3.3 函数解析 2.4 MapPoint::UpdateNor…

idea使用谷歌翻译

项目场景&#xff1a; idea google翻译 问题描述 由于某些原因&#xff0c;现在谷歌翻译一直不能正常使用… 解决方案&#xff1a; 使用 pigcha 工具 设置也超级简单&#xff0c;每个月也就三十多块钱&#xff0c;可正常使用国内外网络。 电脑网络代理设置如下&#xff1a;…

XSS平台与cookie获取

今天继续给大家介绍渗透测试相关知识&#xff0c;本文主要内容是XSS平台与cookie获取。 免责声明&#xff1a; 本文所介绍的内容仅做学习交流使用&#xff0c;严禁利用文中技术进行非法行为&#xff0c;否则造成一切严重后果自负&#xff01; 再次强调&#xff1a;严禁对未授权…