神经网络(第二周)

news2025/1/11 14:52:02

一、简介

1.1 需求预测示例

1.1.1 逻辑回归算法

根据价格预测商品是否畅销。特征:T恤的价格;分类:销售量高1/销售量低0;使用逻辑回归算法进行分类,拟合效果如下图所示:

 1.1.2 神经元和神经网络

将逻辑回归的输出记为a(activation),整个逻辑回归算法都视作一个神经元,神经网络如下图所示:

以上是对单个神经元的描述,现在构建神经网络只需要将这些神经元串在一起并将它们连接在一起即可。现在根据多个特征:T恤的价格、运费、营销量,以及材料质量(优质厚棉还是劣质材料)这四个特征来预测商品是否畅销。我们知道,一件T恤是否畅销,可能取决于实惠性、潜在买家的认知度、感知质量这三个因素。我们利用逻辑回归算法构建第一个神经元,将价格、运费这两个特征作为输入,实惠性与否的概率作为输出。再将营销量特征作为输入,潜在买家的认知度高低的概率作为输出,使用逻辑回归算法构建第二个神经元。将价格、材料质量两个特征作为输入,感知质量好坏的概率作为输出,使用逻辑回归算法构建第三个神经元。最后将前面三个神经元的输出作为新的输入,畅销高低的概率作为新的输出,使用逻辑回归算法构建第四个神经元。神经网络如下图所示:

层是一组神经元,它们将相同或相似的特征作为输入, 然后一起输出一些数字。前面三个神经元构成一个“层”,四个输入特征作为“输入层”,前三个神经元的输出作为“激活值”,右侧神经元构成一个“输出层”。 

但是在实际中,设计神经网络的时候,不需要指定哪些特征作为某个神经元的输入,可以将所有的特征都作为任何一个神经元的输入。也不需要指定神经元的输出是何含义。除了“输入层”、“输出层”,中间的所有层都称为“隐藏层”,我们是不需要知道隐藏层中的实现细节。这就是神经网络的强大之处,他会自动计算在某个隐藏层中需要用到的特征。

如上图所示,隐藏层可以有很多个。第一个隐藏层 ,x向量作为输入,由于有三个神经元,因此他的输出是个三维向量的激活向量。第二个隐藏层,以第一个隐藏的输出作为输入,由于有两个神经元,因此它的输出是二维的激活向量。第二个隐藏层的输出作为输出层的输入,最后输出结果。

综上所述,我们构建自己的神经网络时 ,只需考虑的问题是:1、构建几个隐藏层?2、每个隐藏层设计多少个神经元?。

1.2 图像感知示例

做图像识别时,将一张照片的像素点以向量的形式作为输入。神经网络中,隐藏层的功能我们是不知道的,但是将每个隐藏的神经元的输出可视化出来,可能会大致了解神经元做了什么。例如将第一个隐藏层可视化,我们会发现,他的每个神经元试图寻找图片中不同方向的横竖线。第二个隐藏层,每个神经元在寻找脸部特征,例如第一个神经元在寻找左眼睛。第三个隐藏层,每个神经元将面部不同的部分聚合,尝试检测是否存在更大、更粗糙的面部形状。最后,检测面部与不同面部形状的对应程度可以创建一组丰富的特征,然后帮助输出层尝试确定人物图片的身份。

不同隐藏层,他关注的像素矩阵大小不同,越往后越大。上述隐藏层的功能,全是由神经网络自行实现的,不是我们规定第一个隐藏层检测横竖线,第二个检测鼻子眼睛,第三个聚合成更大的面部轮廓。所以神经网络是强大的。

1.3 更复杂的神经网络

按照惯例,当我们说这个神经网络有四层时,它包括输出层和所有的隐藏层,但一般不包括输入层。

上图中,将第三个隐藏层放大,他的输入是第二个隐藏层的输出\overrightarrow{a}^{[2]}。隐藏层中,每个神经元都有属于他自己的模型参数。a向量称为激活值,g()函数称为激活函数(输入前一层的激活值,生成新的激活值),目前我们使用的激活函数是sigmoid函数,实际上激活函数还可以是其他的函数,后面会做相应的介绍。

二、神经网络前向传播

2.1 手写数字识别示例

功能,输入8*8像素矩阵的图片,模块自动预测手写数字是0/1(手写数字有10种,为了简化成二分类问题,我们只预测数字0或者1)。

如上图所示,我们设计的三层神经网络,第一隐藏层25个神经元,第二隐藏层15个神经元,输出层一个神经元。这里的\overrightarrow{x}是输入向量,也可以称之为\overrightarrow{a}^{[0]}。 \overrightarrow{a}^{[1]}是25维向量,第一隐藏层展开的效果图如上图所示。

接下来是计算第二隐藏层:

最后计算预测结果:

先根据\overrightarrow{x}计算\overrightarrow{a}^{[1]},再计算\overrightarrow{a}^{[2]},最后计算\overrightarrow{a}^{[3]}(f(x)),根据f(x)的大小做出二分类的判断,概率大于等于0.5预测1,否侧预测0,整体是从左向右计算的。这也被称为“前向传播”。

2.2 如何用代码实现

Tensorflow和pytorch是机器学习相关的有效工具库。接下来使用Tensorflow进行代码的编写演示:

第一隐藏层,首先定义输入特征向量x,再定义第一隐藏层(形参1:神经元数量   形参2:激活函数),最后计算激活值a1。

第二隐藏层,首先定义layer_2(形参1:神经元数量   形参2:激活函数),最后计算激活值a2。

a2是分类的概率,设定阀值为0.5,如果概率大于等于0.5,预测值为1,否为为0。

2.2.1 单个网络层上的前向传播

首先计算\overrightarrow{a}^{[1]},他是由a_{1}^{[1]}a_{2}^{[1]}a_{3}^{[1]}三个激活值组成的向量,激活值的计算方法如下图所示。

最后计算\overrightarrow{a}^{[2]}

2.2.2 前向传播的一般实现

在上一节中,每一个神经元激活值的计算都是相同的操作,我们可以对此进行简化,封装在dense函数中。输入:上一层的激活值、这一层的w矩阵、b矩阵、激活函数。返回值:激活向量。

2.2.3 前向传播的矢量化实现

在上一节中,dense函数中使用for循环来实现,这会降低计算效率。矢量化的实现方式,会大幅度提高计算速度,下面是矢量化的实现步骤(左边代码是上一节版本,右边代码是对应地矢量化实现代码):

2.2.4 Tensorflow实现

第一步指定模型,告诉TensorFlow如何计算推理。在第二步,需要使用TensorFlow进行编译,关键步骤是要指定使用的损失函数。第三步使用fit函数,它告诉TensorFlow使用在步骤2中指定的成本函数的损失来拟合你在步骤 1中指定的模型和数据集 X,Y。

2.3 Sigmoid激活函数的替代方案

在上图中,第一个隐藏层中的第二个神经元,通过价格、购物成本、市场、材料来预测消费者的认识程度。最初我们使用Sigmoid激活函数,将消费者的认识程度分为两类:认可1、不认可0。但是实际情况,消费者的认识程度可以更加细分为:不认可、稍微认可、认可、非常认可等类别,相对应的可以将激活值设计成从0到正无穷的正数。

上图中,是三种常见的激活函数,左边是线性激活函数(由于g(z)=z,有些时候会被认为没有使用激活函数)、中间是Sigmoid激活函数、右边是ReLU激活函数。

2.3.1 如何选择激活函数

如何为神经网络中的每一个神经元选择合适的激活函数?

  • 二分类问题,选择Sigmoid激活函数
  • 如果标签值y可正可负,选择线性激活函数
  • 如果标签值y取0到正无穷,选择ReLU激活函数

2.3.2 激活函数的意义

如上图所示,我们设计一个具有一个隐藏层、一个输出层的神经网络。假设每一个神经元都使用线性激活函数(等价于不使用激活函数),前向传播过程如右边所示。最终计算结果\vec{a}^{[2]}=wx+b,完全等同于直接使用线性回归,所以说设计的两层神经网络基本没有意义。

对上图的神经网络中,三个隐藏层 使用线性激活函数,输出层使用逻辑回归,最终结果等价于直接使用逻辑回归。输出结果如下图所示:

综上所述:尽量不要在隐藏层使用线性激活函数。 

三、多分类问题

3.1 softmax回归模型 

假设n分类,也就是说y的取值有1,2,3,...,n,激活值如下图所示:

注意,当n=2时,此时又变成了逻辑回归。也就是说softmax回归模型就是逻辑回归模型的推广。

逻辑回归的损失函数如下,其中当y=1时,loss=-loga_{1};当y=0时,loss=-loga_{2}

相对应的softmax回归的损失函数如下:

3.1.1 softmax输出

前面课程中,我们对手写数字只预测0/1,是二分类问题。现在我们预测所有可能的数字0-9,设计的神经网络输出层原本只有一个神经元,现在要变成10个神经元,如下图所示。这样的输出层也被称为softmax输出。

输入还是和原来的一样,是个手写数字图片\vec{x},经过第一个隐藏层得到激活向量\vec{a}^{[1]}。将\vec{a}^{[1]}当作输入,经过第二个隐藏层得到激活向量\vec{a}^{[2]}。将\vec{a}^{[2]}当作输入,经过softmax层,得到每个数字的概率\vec{a}^{[3]}。计算过程如下图所示。

softmax层也被称为softmax激活函数。代码实现如下。注意,以下代码不是最优的,后面的课程中会给出更好的解决方案。

3.1.2 改进实现

x1=2/10000,x2=(1+1/10000)-(1-1/10000),理论上x1=x2,但是计算机计算的时候,他的存储空间是有限的,实际输出如下图所示:

x2更加精确。上一节的代码中softmax代价函数是正确的,但是有一种方式可以减少这些数值舍入误差,从而在TensorFlow中实现更准确的计算。

首先以逻辑回归为示例,我们首先计算激活值a,再计算损失函数loss,代码如下图所示。注意,逻辑回归中数值舍入的误差较小,可以忽略不计,但是softmax回归中,这类误差较大。

我们还可以换一种实现方式,不计算中间值a,直接使用拟合值z计算loss,实现方式如下图所示(输出层使用线性激活函数,这样的话就相当于没有计算中间值a,而是直接使用拟合值z;损失函数增加一个参数)。相比较上一个实现方法,TensorFlow可以重新排列这个表达式中的项,并提出一种在数值上更准确的实现方法来计算这个损失函数。

同理softmax回归也可以进行改进:

3.2 多标签分类

注意区分多类分类、多标签分类:

多标签分类:给一张图片,输出图片中是否有人、是否有车两个二分类的多标签分类。

多类分类:

四、高级优化算法

4.1 Adam算法

我们使用梯度下降算法的时候,学习率\alpha是个定值,他可能会出现两种极端情况。下图左,\alpha偏小,从起始点start开始,逐渐迭代,迭代次数多才能到达最小点。下图右,\alpha偏大,导致每次迭代的震荡大。

而Adam算法可以解决这个问题,他可以根据运算情况,适度调节\alpha的大小。如上图左,若每次迭代的方向大致相同,就应该增大\alpha;如上图右,若每次迭代,参数来回震荡,就应该减小\alpha

模型与之前相同,编译模型的方式与之前一样,不同的是向编译函数添加一个额外的参数,即指定要使用的优化器tf.keras.optimizers.Adam。Adam优化算法需要一些默认的初始学习率 Alpha,上图例子中,将初始学习率设置为0.003。

4.2 卷积层

到目前为止,我们使用的所有神经网络层都是密集层类型,其中该层中的每个神经元都从前一层获得所有激活的输入。

上图中,每个神经元的输入不是前一层的所有激活值,而是专属于他的部分激活值。这样的网络层称之为卷积层。卷积层的优点:1、更快的计算速度。2、需要更少的数据,过度拟合的概率减少。
如果神经网络中有多个卷积层,会被称为卷积神经网络。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1198860.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Java的类与Golang的结构体的区别

Java作为一门面向对象(OOP)的编程语言,它有类(class)的存在,而对于Golang,它不完全遵从OOP编程语言的设计思想,但它也有类似Java类的结构存在,那就是结构体(s…

数据结构与算法之排序: Leetcode 21. 合并两个有序链表 (Typescript版)

合并两个有序链表 https://leetcode.cn/problems/merge-two-sorted-lists/ 描述 将两个升序链表合并为一个新的 升序 链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的。 示例 1 输入:l1 [1,2,4], l2 [1,3,4] 输出:[1,1,2,3,4,4]示例 …

【网络奇遇记】电路交换与分组交换谁更 “ 美 ”

🌈个人主页:聆风吟 🔥系列专栏:网络奇遇记、数据结构 🔖少年有梦不应止于心动,更要付诸行动。 文章目录 一. 电路交换1.1 电路交换讲解1.2 电路交换实例 二. 分组交换1.1 分组交换讲解1.2 分组交换实例1.3 …

Producer

Producer开发样例 版本说明 新客 户端, 从Kafka 0.9.x 开始, client基于Java语言实现。同时提供C/C, Python等其他客户端实现。 开发步骤 配置客户端参数以及创建客户端实例;构建待发送消息;发送消息;关闭生产者实例; 代码示例 public class KafkaProducer {public stati…

什么是数据库事务、事务的ACID、怎么设置/禁止自动提交?

数据库事务及ACID 数据库事务是指作为单个逻辑工作单元执行的一组操作。这组操作要么全部成功地执行,要么全部不执行,不允许出现部分执行的情况。数据库事务通常需要满足ACID属性,即原子性(Atomicity)、一致性&#x…

建行驻江门市分行纪检组以政治谈话压责任促发展

开展政治谈话,是加强“一把手”和领导班子监督、严肃党内政治生活、加强对党员领导干部日常教育管理的有效手段。 为督促“一把手”和领导班子成员依法依规履行职责、行使权力,推动党中央重大决策部署以及建设银行总行、广东省分行党委的决策部署在本单…

SpringBoot学习(黑马程序员day12)

1jwt令牌 JWT的组成: (JWT令牌由三个部分组成,三个部分之间使用英文的点来分割) 第一部分:Header(头), 记录令牌类型、签名算法等。 例如: {"alg":"HS256",&qu…

Linux各种版本安装详细步骤和root密码破解

文章目录 VMware新建虚拟机硬件设置设置虚拟网络挂载ISO文件 root密码破解 VMware新建虚拟机 硬件设置 设置虚拟网络 编辑>虚拟网络编辑器>VMnet8(NAT模式) 挂载ISO文件 加电>开启次虚拟机 第二项可以检查挂载上来的iso文件是否完整没有破坏 磁盘分区 选自定义分…

Linux应用开发基础知识——字符文字编码(五)

前言: TXT 文件中保存的是字符的核心:它的编码值。而 Notepad 上显示时, 这些字符对应什么样的形状态,这是由字符文件决定的。编码值,字体是两个不一样的东西,比如 A 的编码值是 0x41,但是在屏幕…

用excel计算一个矩阵的转置矩阵

假设我们的原矩阵是一个3*3的矩阵: 125346789 现在求它的转置矩阵: 鼠标点到一个空白的地方,用来存放结果: 插入-》函数: 选择TRANSPOSE,这个就是求转置矩阵的函数: 点击“继续”&#xff1a…

SparkSQL之Rule体系

在Unresolved LogicalPlan逻辑算子树的操作(如绑定、解析、优化等)中,主要方法都是基于规则(Rule)的,通过Scala语言模式匹配机制(Pattern-match)进行树结构的转换或节点改写。Rule是…

TCP协议(建议收藏)

1. TCP特点 有连接:需要双方建立连接才能通信,在socket编程中服务端new ServerSocket(port)需要绑定端口,在客服端new Socket(serverIp, serverPort)与服务端建立连接可靠传输:确认应答机制,超时重传机制面向字节流&a…

Python开源项目PGDiff——人脸重建(Face Restoration),模糊清晰、划痕修复及黑白上色的实践

python ansconda 等的下载、安装等请参阅: Python开源项目CodeFormer——人脸重建(Face Restoration),模糊清晰、划痕修复及黑白上色的实践https://blog.csdn.net/beijinghorn/article/details/134334021 友情提示: …

vue 使用js new Map()优化多个if else 执行方法

前言 在实际开发中根据业务需求我们经常要判断情况,一个if 我们科技直接使用ES6就可以解决 经常会出现根据不同的条件执行不同的方法,这是就会有多个if else 看起不太美观也费劲 js new map ()就可以解决这个问题,它…

建行广东省江门市分行走进农村地区开展反假货币宣传

人民对美好生活的向往,涉及方方面面,小至“钱袋子”安全。建行广东省江门市分行落实当地监管部门部署,积极扛起维护国家金融安全的重要政治责任,深入农村地区开展反假货币宣传工作,助力构建农村反假货币工作长效机制。…

notes_质谱蛋白组学数据分析基础知识

目录 1. 蛋白组学方法学1.1 液相-质谱法1) 基本原理2) bottom-up策略的基本流程 1.2 PEA/Olink 2. 质谱数据分析2.1 原始数据格式2.2 分析过程1)鉴定2)定量3)预处理 2.3 下游分析 参考附录 1. 蛋白组学方法学 目前常见的蛋白组学方法学如下图…

【C/C++笔试练习】内联函数、函数重载、调用构造函数的次数、赋值运算符重载、静态成员函数、析构函数、模板定义、最近公共祖先、求最大连续bit数

文章目录 C/C笔试练习选择部分(1)内联函数(2)函数重载(3)调用构造函数的次数(4)赋值运算符重载(5)静态成员函数(6)调用构造函数的次数…

一句话讲明白buck和boost电源电路

大部分教程就是垃圾 虽然buck和boost结构上很像,但是是两个原理完全不一样的东西 BUCK(降压)电源 buck就是把方波,用LC滤波器后,变成正弦波 滤波:就是让电压缓慢增加,缓慢减少。&#xff08…

【SoC基础】DMA的工作原理

📢:如果你也对机器人、人工智能感兴趣,看来我们志同道合✨ 📢:不妨浏览一下我的博客主页【https://blog.csdn.net/weixin_51244852】 📢:文章若有幸对你有帮助,可点赞 👍…

19.删除链表的倒数第N个结点(LeetCode)

想法一 先用tail指针找尾,计算出节点个数,再根据倒数第N个指定删除 想法二 根据进阶的要求,只能遍历一遍链表,那刚刚想法一就做不到 首先,我们要在一遍内找到倒数第N个节点,所以我们设置slow和fast两个指…