实验二 单隐层神经网络

news2024/11/16 1:15:50

一、实验目的

1)学习并掌握常见的机器学习方法;

2)能够结合所学的python知识实现机器学习算法;

3)能够用所学的机器学习算法解决实际问题。

二、实验内容与要求

1)掌握神经网络的基本原理,掌握并理解反向传播算法;

2)能够结合单层神经网络实现分类问题;

3)根据所提供的代码,完成基本的分类问题的代码;

4)能够正确输出结果

三、实验过程及代码

3.1搭建神经网络

(1)初始化每层节点数量

假设W1为输入层到隐层的权重数组、b1为输入层到隐层的偏置数组;W2为隐层到输出层的权重数组,b2为隐层到输出层的偏置数组。

def layer_sizes(X, Y, n_h = 4):

    n_x = X.shape[0] #输入层

    n_h = n_h#,隐藏层

    n_y = Y.shape[0] #输出层

    

    return (n_x,n_h,n_y)

(2)初始化每层参数

其中对权值的初始化我们利用了numpy中的生成随机数的模块np.random.

randn,偏置的初始化则使用了np.zero模块。通过设置一个字典进行封装并返回包含初始化参数之后的结果。

def initialize_parameters( n_x , n_h ,n_y):

    #Please add something

    np.random.seed(2)

    w1 = np.random.randn(n_h,n_x)*0.01

    b1 = np.zeros((n_h,1))

    w2 = np.random.randn(n_y,n_h)*0.01

    b2 = np.zeros((n_y,1))

    parameters = {

        'w1':w1,

        'w2': w2,

        'b1': b1,

        'b2': b2,

    }

    return parameters

3前向传播

在定义好网络结构并初始化参数完成之后,就要开始执行神经网络的训练过程了。而训练的第一步则是执行前向传播计算。假设隐层的激活函数为 tanh函数,输出层的激活函数为sigmoid函数。

def forward_propagation( X , parameters ):

    #Please add something

    w1 = parameters['w1']#4*2

    b1 = parameters['b1']#4*1

    w2 = parameters['w2']#1*4

    b2 = parameters['b2']#1*1

    Z1 = np.dot(w1,X)+b1#4*400

    A1 = np.tanh(Z1)#4*400

    Z2 = np.dot(w2,A1)+b2#1*400

    A2 = sigmoid(Z2)#1*400

    cache = {

        "Z1":Z1,

        "A1": A1,

        "Z2": Z2,

        "A2": A2

    }

    return cache

4计算交叉熵成本

def compute_cost(A2,Y):

    """

    计算交叉熵成本,

    

    参数:

         A2 - 使用sigmoid()函数计算的第二次激活后的数值

         Y - "True"标签向量,维度为(1,数量)

    

    返回:

         成本 - 交叉熵成本

    """

    #Please add something

    m = Y.shape[1]

    first = np.multiply(-Y,np.log(A2))

    second = np.multiply(1-Y,np.log(1-A2))

    cost = np.sum(first-second)/m

    return cost

5搭建反向传播函数

当前向传播和当前损失确定之后,就需要继续执行反向传播过程来调整权值了。中间涉及到各个参数的梯度计算,具体如下所示:

def backward_propagation(parameters,cache,X,Y):

    #Please add something

    m = X.shape[1]

    w1 = parameters['w1']#4*2

    w2 = parameters['w2']#1*4

    A1 = cache['A1']#4*400

    A2 = cache['A2']#1*400

    dz2 = A2-Y#1*400

    dw2 = (1/m)*np.dot(dz2,A1.T)#1*4

    db2 = (1/m)*np.sum(dz2,axis = 1,keepdims = True)#1*1

    #最难理解的部分

    dz1 = np.multiply(np.dot(w2.T,dz2),1-np.power(A1,2))#4*400

    dw1 = (1/m)*np.dot(dz1,X.T)#4*2

    db1 = (1/m)*np.sum(dz1,axis = 1,keepdims = True)#4*1

    grads = {

        'dw1':dw1,

        'db1': db1,

        'dw2': dw2,

        'db2': db2,

    }

    return grads

6)根据梯度下降更新规则更新参数

当前向传播和当前损失确定之后,就需要继续执行反向传播过程来调整权值和偏值了。这里涉及到了梯度下降算法,具体的公式步骤如下:

def update_parameters(parameters,grads,learning_rate=0.1):

    #Please add something

    w1 = parameters['w1']

    w2 = parameters['w2']

    b1 = parameters['b1']

b2 = parameters['b2']

    dw2 = grads['dw2']

    dw1 = grads['dw1']

    db2 = grads['db2']

    db1 = grads['db1']

    w2 = w2 - learning_rate*dw2

    b2 = b2 - learning_rate * db2

    w1 = w1 - learning_rate * dw1

    b1 = b1 - learning_rate * db1

    parameters = {

        'w1': w1,

        'w2': w2,

        'b1': b1,

        'b2': b2,

    }

    return parameters

(7)整合模型

def nn_model(X,Y,n_h,num_iterations,print_cost=False):

    #Please add something

    np.random.seed(3)

    n_x = layer_sizes(X,Y)[0]

    n_y = layer_sizes(X,Y)[2]

    parameters = initialize_parameters(n_x,n_h,n_y)

    w1 = parameters['w1']

    w2 = parameters['w2']

    b1 = parameters['b1']

    b2 = parameters['b2']

    for i in range(num_iterations):

        cache = forward_propagation(X,parameters)

        cost = compute_cost(cache["A2"],Y)

        grads = backward_propagation(parameters,cache,X,Y)

        parameters = update_parameters(parameters,grads,learning_rate=0.5)

        if print_cost:

            if i%100==0:

                print("第",i,"次循环,成本为"+str(cost))

    return parameters

3.2模型预测

(1)预测代码

def predict(parameters,X):

    """

    使用学习的参数,为X中的每个示例预测一个类

    

    参数:

        parameters - 包含参数的字典类型的变量。

        X - 输入数据(n_x,m)

    

    返回

        predictions - 模型预测的向量(红色:0 /蓝色:1)

     

     """

    cache = forward_propagation(X,parameters)

    predictions = np.round(cache["A2"])

    

return predictions

X,Y = load_planar_dataset()

parameters = nn_model(X, Y, n_h = 4, num_iterations=10000, print_cost=True)

#绘制边界

plot_decision_boundary(lambda x: predict(parameters, x.T), X, Y)

plt.title("Decision Boundary for hidden layer size " + str(4))

predictions = predict(parameters, X)

2)预测数据结果

3)更改隐藏层节点数量

plt.figure(figsize=(16, 32))

hidden_layer_sizes = [1, 2, 3, 4, 5, 20, 50] #隐藏层数量

for i, n_h in enumerate(hidden_layer_sizes):

    plt.subplot(5, 2, i + 1)

    plt.title('Hidden Layer of size %d' % n_h)

    parameters = nn_model(X, Y, n_h, num_iterations=5000)

    plot_decision_boundary(lambda x: predict(parameters, x.T), X, Y)

    predictions = predict(parameters, X)

    accuracy = sklearn.metrics.accuracy_score(predictions.T,Y.T)*100

    print ("隐藏层的节点数量: {}  ,准确率: {} %".format(n_h, accuracy))

(4)输出结果

隐藏层的节点数量: 1  ,准确率: 67.25 %

隐藏层的节点数量: 2  ,准确率: 66.5 %

隐藏层的节点数量: 3  ,准确率: 89.25 %

隐藏层的节点数量: 4  ,准确率: 90.0 %

隐藏层的节点数量: 5  ,准确率: 89.75 %

隐藏层的节点数量: 20  ,准确率: 90.0 %

隐藏层的节点数量: 50  ,准确率: 89.75 %

 

四、实验分析及总结

从上图可以看出,隐藏节点数的增加,可以降低网络误差,提高精准度,但是也会使得网络复杂化,从而增加了网络的训练时间和出现”过拟合”的倾向。

 神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。神经元模型是一个包含输入,输出与计算功能的模型。输入可以类比为神经元的树突,而输出可以类比为神经元的轴突,计算则可以类比为细胞核。把需要计算的层次称之为“计算层”,并把拥有一个计算层的网络称之为“单层神经网络”。有一些文献会按照网络拥有的层数来命名,例如把“感知器”称为两层神经网络。

  在神经网络中,隐藏层点数的选择对建立神经网络模型的影响很大,而且是训练时出现“过拟合”的直接原因。我通过了解得知隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。为了避免过拟合的现象,保证足够高的网络性能和泛化能力,在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数 。隐藏层节点数不仅与输入输出层的节点数有关,更与需要解决的问题的复杂度和转换函数的模型以及样本数据的特性等因素有关。确定隐藏层的节点数满足条件有:(1)隐藏层必须小于N-1(2)训练样本必须多于网络模型的连接权数,一般为2-10倍。因此得到,输入层的节点数(变量数)必须小于N-1,合理隐藏层节点数应在综合考虑网络结构复杂程度和误差的情况下节点删除法和扩张法确定。当隐藏节点越多,层数越多时,权值成倍的增长。权值的增长意味着对应的空间的维数越高,过高的维数易导致训练后期的过拟合。当网络的训练次数过多时,可能会出现过拟合的情况。解决过拟合主要两种方法:一种是使用权值衰减的方式,即每次迭代过程中以某个较小的因子降低每个权值;另一种方法就是使用验证集的方式来找出使得验证集误差最小的权值,对训练集较小时可以使用交叉验证等。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/108164.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

我们是如何构建自己的可观测性的

引言 近日,关于云平台自身的可靠性问题又成为大家关注的焦点。系统一定会有故障,相信作为用户都能理解,但用户需要在故障发生后,能尽快知晓造成故障的根本原因和修复计划,以便有效调整受影响的业务来降低损失&#xf…

盘点2022年电视行业:科技与美学的战场三星缔造“生活方式”的全新价值

作者 | 曾响铃 文 | 响铃说 前不久,中国质量协会第十一次组织开展了本年度电视行业用户满意度监测,监测对象为市场占有率达90%以上的10个主流电视品牌,结果显示2022年电视行业用户满意度为83分,同比持平,处于较高水平…

【Ctfer训练计划】——(三)

作者名:Demo不是emo 主页面链接:主页传送门 创作初心:舞台再大,你不上台,永远是观众,没人会关心你努不努力,摔的痛不痛,他们只会看你最后站在什么位置,然后羡慕或鄙夷座…

Linux系统安装Zookeeper教程

原文链接 在root账户下创建zookeeper安装目录: mkdir /home/zookeeper进入zookeeper目录: cd /home/zookeeper通过wget命令下载zookeeper安装包: wget https://mirrors.bfsu.edu.cn/apache/zookeeper/zookeeper-3.7.0/apache-zookeeper-3.7.0…

spring+jsp面向社区健康服务的医疗平台

目录 第一章 绪论 5 1.1 研究背景 5 1.2系统研究现状 5 1.3 系统实现的功能 6 1.4系统实现的特点 6 1.5 本文的组织结构 6 第二章开发技术与环境配置 7 2.1 Java语言简介 7 2.2JSP技术 8 2.3 MySQL环境配置 8 2.5 mysql数据库介绍 9 2.6 B/S架构 9 第三章系统分析与设计 11 3…

WebDAV之葫芦儿·派盘+FX文件管理器

FX文件管理器 支持WebDAV方式连接葫芦儿派盘。 想要一款几乎强大到极致的文件/媒体管理器,同时支持手机、电脑文件共享?推荐您选择FX File Explorer,您就可以快速轻松地管理您手机或平板上的所有内容。 FX File Explorer是一个多功能的手机文件流量和管理工具。它的界面美…

拆解一个居家隔离监测的无线门磁

捡到了一个居家隔离监测的无线门磁,拆开来看看: 门磁整体照: 一套门磁分两部分,一个主机,一个磁铁; 可以看到,使用的是两节干电池供电,内置弹簧天线。 拆下来PCBA,可…

(二十)Vue之单文件组件

文章目录基本使用一、如何定义一个组件?二、如何注册组件?三、如何使用组件?演示程序普通Vue程序单文件组件程序局部注册全局注册几个注意点1.关于组件名2.关于组件标签3.一个简写方式组件的嵌套使用关于VueComponent一个重要的内置关系&…

行业唯一,Eolink 入选信通院“云上软件工程社区汽车云工作组”首批企业成员名单

导读:本月20日,由中国信息通信研究院主办的汽车云专场沙龙成功召开,会上信通院发布了业内首个《汽车行业软件研发效能成熟度模型标准》,并成立了“云上软件工程社区-汽车云工作组”,Eolink 作为 API 管理领域唯一企业入…

下载离线地图多种方式(osm,MapTileDownloader )

目录 效果图: 一 下载离线地图的二种方式 1.osm 的方式下载瓦片 2、下载MapTileDownloader 二 代码(推荐使用osm方式) 效果图: 一 下载离线地图的二种方式 1.osm 的方式下载瓦片 百度网盘分享链接:https://pan.…

平板雷达水位计如何安装?平板雷达水位计怎么用?

1、设备介绍 本产品是一款用于地表水液位监测的非接触式平面雷达水位计,基于精确测量的电磁波测距技术。传感器发射电磁波照射水面并接收其回波,由此获得水面至电磁波发射点的距离、距离变化率(径向速度)、方位、高度等信息。  …

如何在Odoo 16库存中配置批次和序列号

如果您是库存管理操作的新手,您必须熟悉几种识别号,以跟踪和识别从制造到交付过程中的产品。批次和序列号是制造商通过各种产品移动来识别产品的部件。人们常常误解这些是一些随机分配的数字,以便得到产品的总数。但是,当涉及到库…

2022年第三届MathorCup高校数学建模挑战赛——大数据竞赛 赛道B 北京移动用户体验影响因素研究 问题二建模方案及代码实现详解

2022年第三届MathorCup高校数学建模挑战赛——大数据竞赛 赛道B 北京移动用户体验影响因素研究 建模方案及代码实现 更新进展 2022年12月21日 12:20 发布问题一、二思路及问题一的python代码实现 2022年12月22日 15:00 发布问题二python实现的代码 更新完毕 相关链接 &…

【观察】魔方安全:攻击面管理SaaS化创新,让企业在攻防实战中化被动为主动...

近年来,随着网络安全形势的愈加严峻,行业对实战型攻防技术的认知也有了快速的提升。在此背景下,偏向于主动防御且更注重实战对抗的攻击面管理(Attack Surface Management,简称“ASM”)理念以及相关技术&…

使用 ABAP 代码给 OData 元数据增添注解的一些例子

最近有读者向我咨询,关于当系统在 SAP NetWeaver 740 之上运行时,如何向 OData 服务添加注解(annotation)。 虽然使用 SAP NetWeaver 750 及更高版本,可以在 CDS DDL 源代码中添加注解,然而 SAP NetWeaver 740 没有此类支持。 尽…

基于神经网络的宏观经济数据分析研究(Matlab代码实现)

👨‍🎓个人主页:研学社的博客 💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜…

redis介绍及使用部署

一、redis介绍 1、redis特点: 开源的(BSD协议),使用ANSI C 编写,基于内存的且支持持久化,高性能的Key-Value的NoSQL数据库单线程运行,省去了线程上下文切换带来的性能开销,效率更高…

Cadence Allegro单个元器件的PCB封装更新操作

Cadence Allegro单个元器件的PCB封装更新操作 在PCB设计中如何对同一种类型的元器件进行封装的更新,有时候会出现这样的情况,出现错误的操作,误删除的其中一个器件的丝印或者是什么的,能否只更新这一个器件呢,其它的不…

Python_3、数据容器和函数进阶

目录 数据容器 列表(list) 元组(tuple) 字符串(str) 集合(set) 字典(dict) 序列的切片 函数 数据容器 数据容器一种可以容纳多份数据的数据类型&#…

校园文件发布系统|基于Springboot实现校园文章发布系统

作者主页:编程千纸鹤 作者简介:Java、前端、Pythone开发多年,做过高程,项目经理,架构师 主要内容:Java项目开发、毕业设计开发、面试技术整理、最新技术分享 收藏点赞不迷路 关注作者有好处 文末获得源码 …