小白学视觉 | 神经网络训练trick总结

news2024/11/15 11:12:21

本文来源公众号“小白学视觉”,仅用于学术分享,侵权删,干货满满。

原文链接:神经网络训练trick总结

来自 | 知乎   作者 | Anticoder

链接 | https://zhuanlan.zhihu.com/p/59918821

本文仅作学术交流,如有侵权,请联系删除

神经网络构建好,训练不出好的效果怎么办?明明说好的拟合任意函数(一般连续) ,说好的足够多的数据(Occam's razor),仔细设计的神经网络都可以得到比其他算法更好的准确率和泛化性呢(当然不是我说的),怎么感觉不出来呢?

很直观,因为神经网络可以随意设计,先验假设较少,参数多,超参数更多,那模型的自由度就非常高了,精心设计对于新手就变得较难了。这里讲一些最简单的trick,肯定不全面,欢迎大家留言补充。因为我也是新手!

下面介绍一些值得注意的部分,有些简单解释原理,具体细节不能面面俱到,请参考专业文章。

那我们直接从拿到一个问题决定用神经网络说起。一般而言,

  • 首先选定你要采用的结构,如一对一,固定窗口,数据维度粒度,MLP,RNN或者CNN等

  • 非线性选择,sigmoid,tanh,ReLU,或者一些变体,一般tanh比sigmoid效果好一点(简单说明下,两者很类似,tanh是rescaled的sigmoid,sigmoid输出都为正数,根据BP规则,某层的神经元的权重的梯度的符号和后层误差的一样,也就是说,如果后一层的误差为正,则这一层的权重全部都要降低,如果为负,则这一层梯度全部为负,权重全部增加,权重要么都增加,要么都减少,这明显是有问题的;tanh是以0为对称中心的,这会消除在权重更新时的系统偏差导致的偏向性。当然这是启发式的,并不是说tanh一定比sigmoid的好),ReLU也是很好的选择,最大的好处是,当tanh和sigmoid饱和时都会有梯度消失的问题,ReLU就不会有这个问题,而且计算简单,当然它会产生dead neurons,下面会具体说。

  • Gradient Check,如果你觉得网络feedforward没什么问题,那么GC可以保证BP的过程没什么bug。值得提的是,如果feedforward有问题,但是得到的误差是差不多的,GC也会感觉是对的。大多情况GC可帮你找到很多问题!步骤如下:

那如果GC失败,可能网络某些部分有问题,也有可能整个网络都有问题了!你也不知道哪出错了,那怎么办呢?构建一个可视化过程监控每一个环节,这可以让你清楚知道你的网络的每一地方是否有问题!!这里还有一个trick,先构建一个简单的任务(比如你做MNIST数字识别,你可以先识别0和1,如果成功可以再加入更多识别数字);然后从简单到复杂逐步来检测你的model,看哪里有问题。举个例子吧,先用固定的data通过单层softmax看feedforward效果,然后BP效果,然后增加单层单个neuron unit看效果;增加一层多个;增加bias。。。。。直到构建出最终的样子,系统化的检测每一步!

  • 参数初始化也是重要滴!其主要考虑点在于你的激活函数的取值范围和梯度较大的范围!
    隐层的bias一般初始化为0就可以;输出层的bias可以考虑用reverse activation of mean targets或者mean targets(很直观对不对) weights初始化一般较小的随机数,比如Uniform,Gaussion

更放心一点,可视化每一层feedforward输出的取值范围,梯度范围,通过修改使其落入激活函数的中间区域范围(梯度类似线性);如果是ReLU则保证不要输出大多为负数就好,可以给bias一点正直的噪声等。当然还有一点就是不能让神经元输出一样,原因很简单

  • 优化算法,一般用mini-batch SGD,绝对不要用full batch gradient(慢)。一般情况下,大数据集用2nd order batch method比如L-BFGS较好,但是会有大量额外计算2nd过程;小数据集,L-BFGS或共轭梯度较好。(Large-batch L-BFGS extends the reach of L-BFGSLe et al. ICML 2001)

mini-batch好处主要有:可以用矩阵计算加速并行;引入的随机性可以避免困在局部最优值;并行化计算多个梯度等。在此基础上一些改进也是很有效的(因为SGD真的敏感),比如Momentum,他的意图就是在原先的跟新基础上增加一点摩擦力,有点向加速度对速度的作用,如果多次更新梯度都往一个方向,说明这个方向是对的,这时候增加跟新的步长,突然有一个方向,只会较少影响原来的方向,因为可以较少的数据带来的误差。当你使用momentum时可以适当减小global learning rate

momentum

  • 学习率,跑过神经网络的都知道这个影响还蛮大。一般就是要么选用固定的lr,要么随着训练让lr逐步变小

方案一:当验证误差不再下降时,lr减小为原来的0.5

方案二:采用理论上可以保证收敛的减小比例,O(1/t),t是迭代次数

方案三:最好用自适应的学习率,比如Adagrad(Duchi et al. 2010)等

简要说明一下,Adagrad非常适合数据出现频度不一样的模型,比如word2vec,你肯定希望出现非常少的词语权重更新非常大,让它们远离常规词,学习到向量空间中距离度量的意义,出现非常多的词(the,very,often)每次更新比较小。

adagrad

按照上面式子,如果进入一个local optimum,参数可能无法更新时,可以考虑每隔一段epoch,reset sum项

  • 看看你的模型有没有能力过拟合!(training error vs. validation error)

如果没有,想办法让它过拟合!(r u kidding?! 哈哈),一般而言,当参数多于training数据时,模型是有能力记住数据的,总归先保证模型的能力么

如果过拟合了,那么就可以进一步优化啦,一般深度学习breakthrough的方法都是来自于更好的regularization method,解决过拟合很多方法在此就不多论述了。比如减小模型(layers, units);L1,L2正则(weight decay);early stop(按照数据集大小,每隔一段epoch(比如小数据集每隔5epoch,大的每隔(1/3epoch))保存模型,最后选择validation error 最小的模型);sparsity constraints on hidden activation;Dropout;data

augumentation (CNN 一些变化不变性要注意)等

------

大体流程如上,再引一篇大神之作

Practical Recommendations for Gradient-Based Training of Deep Architectures Y. Bengio(2012)

https://link.springer.com/chapter/10.1007/978-3-642-35289-8_26

额外提到的有unsupervised预训练。其实数据不够时也可以找类似任务做迁移学习,fine-tuning等。

最后,可以看到一个网络那么多的超参数,怎么去选这些超参数呢?文章也说了:Random hyperparameter search!

以上提的多是supervised learning,对于unsupervised learning可以做fine tuning

接下来按一些模块具体列举下,欢迎补充!!

1   标准化(Normalization)

很多machine learning模型都需要,在此不多论述,神经网络假设inputs/outputs服从近似均值为0方差为1分布。主要为了公平对待每个特征;使优化过程变得平稳;消除量纲影响等

z-score; min-max; decimal scaling等

  • scale控制特征的重要性:大scale的output特征产生更大的error;大的scale的input的特征可以主导网络对此特征更敏感,产生大的update

  • 一些特征本来取值范围很小需要格外注意,避免产生NaNs

  • 就算没有标准化你的网络可以训练的话,那可能前几层也是做类似的事情,无形增加了网络的复杂程度

  • 通常都是把所有inputs的特征独立地按同样的规则标准化,如果对任务有特殊需求,某些特征可以特别对待 

2   检查结果(Results Check)

有点类似于在模型中按一个监控系统(预处理,训练,预测过程中都要),这个步骤可以帮助你发现你的模型在哪里出了问题,最好可以找到可视化的方法,一目了然,比如图像方面就很直观了。

  • 需要注意的是,你需要理解你设定的error的意义,就算训练过程error在不断减少,也需要来和真实的error比较,虽然training error减少了,但是可能还不够,真实世界中需要更小的error,说明模型学习的还不够

  • 在training过程中work后,再去看在validation集上的效果

  • 再更新网络结构前,最好确保每一个环节都有“监控”,不要盲目做无用功

3   预处理(Pre-Processing Data)

现实中同样的数据可以有不同的表达方式,比如移动的汽车,你从不同角度位置去观察,它做的都是同样的事情。你应该确保从南面观察和从西面观察的同样的数据,应该是相似的!

  • 神经网络假设数据的分布空间是连续的

  • 减少数据表示多样性带来的误差;间接减少了网络前几层做没必要的“等同”映射带来的复杂度

4   正则化(Regularization)

增加Dropout,随机过程,噪声,data augumentation等。就算数据足够多,你认为不可能over-fitting,那么最好还是有正则,如dropout(0.99)

  • 一方面缓解过拟合,另一方面引入的随机性,可以平缓训练过程,加速训练过程,处理outliers

  • Dropout可以看做ensemble,特征采样,相当于bagging很多子网络;训练过程中动态扩展拥有类似variation的输入数据集。(在单层网络中,类似折中Naiive bayes(所有特征权重独立)和logistic regression(所有特征之间有关系);

  • 一般对于越复杂的大规模网络,Dropout效果越好,是一个强regularizer!

  • 最好的防止over-fitting就是有大量不重复数据

5   Batch Size太大

太大的batch size会减gradient descend的随机性,对模型的精度产生负面影响。
如果可以容忍训练时间过长,最好开始使用尽量小的batch size(16,8,1)

  • 大的batch size需要更多的epoch来达到较好的水平

  • 原因1:帮助训练过程中跳出local minima

  • 原因2:使训练进入较为平缓的local minima,提高泛化性 

6   学习率lr

去掉gradient clipping(一般默认有),训练过程中,找到最大的,使模型error不会爆掉的lr,然后用稍微小一点的lr训练

  • 一般数据中的outliers会产生大的error,进而大的gradient,得到大的weight update,会使最优的lr比较难找

  • 预处理好数据(去除outliers),lr设定好一般无需clipping

  • 如果error explode,那么加gradient clipping只是暂时缓解,原因还是数据有问题  

7   最后一层的激活函数

限制输出的范围,一般不用任何激活

需要仔细考虑输入是什么,标准化之后的输出的取值范围,如果输出有正有负,你用ReLU,sigmoid明显不行;多分类任务一般用softmax(相当于对输出归一化为概率分布)

  • 激活只是一个映射,理论上都可以

  • 如果输出没有error明显也不行,那就没有gradient,模型也学不到什么

  • 一般用tanh,产生一个问题就是梯度在-1或1附近非常小,神经元饱和学习很慢,容易产生梯度消息,模型产生更多接近-1或1的值

8   Bad Gradient(Dead Neurons)

使用ReLU激活函数,由于其在小于零范围梯度为0,可能会影响模型性能,甚至模型不会在更新

当发现模型随着epoch进行,训练error不变化,可能所以神经元都“死”了。这时尝试更换激活函数如leaky ReLU,ELU,再看训练error变化

  • 使用ReLU时需要给参数加一点噪声,打破完全对称避免0梯度,甚至给biases加噪声

  • 相对而言对于sigmoid,因为其在0值附近最敏感,梯度最大,初始化全为0就可以啦

  • 任何关于梯度的操作,比如clipping, rounding, max/min都可能产生类似的问题

  • ReLU相对Sigmoid优点:单侧抑制;宽阔的兴奋边界;稀疏激活性;解决梯度消失

9   初始化权重

一般说随机初始化为一些小的数,没那么简单,一些网络结构需要一些特定的初始化方法,初始化不好很可能得不到文章上的效果!可以去尝试一些流行的找到有用的初始化

  • 太小:信号传递逐渐缩小难以产生作用

  • 太大:信号传递逐渐放大导致发散和失效

  • 比较流行的有 'he', 'lecun', 'Xavier'(让权重满足0均值,2/(输入节点数+输出节点数))

  • biases一般初始化为0就可以

  • 每一层初始化都很重要

10  网络太深

都说深度网络精度更高,但深度不是盲目堆起来的,一定要在浅层网络有一定效果的基础上,增加深度。深度增加是为了增加模型的准确率,如果浅层都学不到东西,深了也没效果。

开始一般用3-8层,当效果不错时,为了得到更高的准确率,再尝试加深网络

  • 所以的优化方法在浅层也有用,如果效果不好,绝对不是深度不够

  • 训练和预测过程随着网络加深变慢

11   Hidden neurons的数量

最好参考researcher在相似的任务上结构,一般256-1024

太多:训练慢,难去除噪声(over-fitting)

太少:拟合能力下降

  • 考虑真实变量有多少信息量需要传递,然后再稍微增加一点(考虑dropout;冗余表达;估计的余地)

  • 分类任务:初始尝试5-10倍类别个数

  • 回归任务:初始尝试2-3倍输入/输出特征数

  • 这里直觉很重要

  • 最终影响其实不大,只是训练过程比较慢,多尝试 

12   loss function

多分类任务一般用cross-entropy不用MSE

  • 多分类一般用softmax,在小于0范围内梯度很小,加一个log可以改善此问题

  • 避免MSE导致的学习速率下降,学习速率受输出误差控制(自己推一下就知道了)

13   AE降维

对中间隐层使用L1正则,通过惩罚系数控制隐含节点稀疏程度

14   SGD

不稳定算法,设定不同的学习速率,结果差距大,需要仔细调节

一般希望开始大,加速收敛,后期小,稳定落入局部最优解。

也可采用自适应的算法,Adam,Adagrad,Adadelta等减轻调参负担(一般使用默认值就可以)

  • 对于SGD需要对学习率,Momentum,Nesterov等进行复杂调参

  • 值得一提是神经网络很多局部最优解都可能达到较好的效果,而全局最优解反而是容易过拟合的解 

15   CNN的使用

神经网络是特征学习方法,其能力取决隐层,更多的连接意味着参数爆炸的增长,模型复杂直接导致很多问题。比如严重过拟合,过高的计算复杂度。

CNN其优越的性能十分值得使用,参数数量只和卷积核大小,数量有关,保证隐含节点数量(与卷积步长相关)的同时,大量降低了参数的数量!当然CNN更多用于图像,其他任务靠你自己抽象啦,多多尝试!

这里简单介绍一些CNN的trick

  • pooling或卷积尺寸和步长不一样,增加数据多样性

  • data augumentation,避免过拟合,提高泛化,加噪声扰动

  • weight regularization

  • SGD使用decay的训练方法

  • 最后使用pooling(avgpooling)代替全连接,减少参数量

  • maxpooling代替avgpooling,避免avgpooling带来的模糊化效果

  • 2个3x3代替一个5x5等,减少参数,增加非线性映射,使CNN对特征学习能力强

  • 3x3,2x2窗口

  • 预训练方法等

  • 数据预处理后(PCA,ZCA)喂给模型

  • 输出结果窗口ensemble

  • 中间节点作为辅助输出节点,相当于模型融合,同时增加反向传播的梯度信号,提供了额外的正则化

  • 1x1卷积,夸通道组织信息,提高网络表达,可对输出降维,低成本,性价比高,增加非线性映射,符合Hebbian原理

  • NIN增加网络对不同尺度的适应性,类似Multi-Scale思想

  • Factorization into small convolution,7x7用1x7和7x1代替,节约参数,增加非线性映射

  • BN减少Internal Covariance Shift问题,提高学习速度,减少过拟合,可以取消dropout,增大学习率,减轻正则,减少光学畸变的数据增强

  • 模型遇到退化问题考虑shortcut结构,增加深度

  • 等等

16   RNN使用

小的细节和其他很像,简单说两句个人感觉的其他方面吧,其实RNN也是shortcut结构

  • 一般用LSTM结构防止BPTT的梯度消失,GRU拥有更少的参数,可以优先考虑

  • 预处理细节,padding,序列长度设定,罕见词语处理等

  • 一般语言模型的数据量一定要非常大

  • Gradient Clipping

  • Seq2Seq结构考虑attention,前提数据量大

  • 序列模型考率性能优良的CNN+gate结构

  • 一般生成模型可以参考GAN,VAE,产生随机变量

  • RL的框架结合

  • 数据量少考虑简单的MLP

  • 预测采用层级结构降低训练复杂度

  • 设计采样方法,增加模型收敛速度

  • 增加多级shortcut结构

今天就到这了,欢迎补充。

THE END!

文章结束,感谢阅读。您的点赞,收藏,评论是我继续更新的动力。大家有推荐的公众号可以评论区留言,共同学习,一起进步。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1515871.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

LLM和自动驾驶强强联合 | DriveDreamer-2:自动驾驶定制视频生成世界模型!

文章链接:https://arxiv.org/pdf/2403.06845.pdf 项目文档:https://drivedreamer2.github.io/ 自动驾驶是最近几年非常火热的方向,那LLM和视频生成在自动驾驶领域有哪些应用呢?今天和大家一起学习一下最新的一篇工作————Driv…

什么是文档签名证书?文档签名证书有什么用?

在数字化高速发展的当今时代,各行各业都开始向数字化转型,随着国家大力倡导和积极推进数字化,电子文件的应用越来越广泛。然而,电子文件包含了个人隐私、金融交易、电子处方、合同协议等敏感信息,如何确保这些重要文件…

迷你内裤洗衣机排名前十名:2024年十大口碑一流内衣洗衣机推荐

如果你对于内衣物的卫生有特殊的清洗需求,那么一台内衣专用的迷你内裤洗衣机是十分值得买的,由于迷你内裤洗衣机的外观尺寸小、重量轻,所以很容易搬运和携带,适合单身公寓、旅馆、露营等场合,不用像传统的家庭洗衣机那…

Unity开发必备AI工具

人工智能(AI)正在迅速改变世界,游戏开发行业也不例外。 人工智能工具被用来创建更真实、更有吸引力的游戏、自动化任务并改进整体开发流程。 Unity 3D 游戏开发人员可以受益于使用 AI 工具来简化工作流程并提高游戏质量。 最近的统计数据显示…

PyJWT 登录鉴权最佳实践【Refresh Token】

🎉 Json web token (JWT), 根据官网的定义,是为了在网络应用环境间传递声明而执行的一种基于JSON的开放标准(RFC 7519)。该token被设计为紧凑且安全的,特别适用于分布式站点的单点登录(SSO)场景。JWT的声明…

NASA数据集——2017年美国阿拉斯加以及加拿大北部二氧化碳探测仪监测的大气后向散射系数剖面图数据集

来自二氧化碳探测仪的大气后向散射系数剖面图,2017年 本数据集提供了2017-07-20至2017-08-08期间在美国阿拉斯加以及加拿大育空地区和西北地区上空进行的二氧化碳夜间、白天和季节排放主动传感(ASCENDS)部署期间收集的大气后向散射系数剖面图…

HTML5+CSS3+移动web——CSS 文字控制属性

系列文章目录 HTML5CSS3移动web——HTML 基础-CSDN博客https://blog.csdn.net/ymxk2876721452/article/details/136070953?spm1001.2014.3001.5502HTML5CSS3移动web——列表、表格、表单-CSDN博客https://blog.csdn.net/ymxk2876721452/article/details/136221443?spm1001.2…

C++ //练习 10.34 使用reverse_iterator逆序打印一个vector。

C Primer(第5版) 练习 10.34 练习 10.34 使用reverse_iterator逆序打印一个vector。 环境:Linux Ubuntu(云服务器) 工具:vim 代码块 /**************************************************************…

springboot整合最新版minio和minio的安装(完整教程,新人必看)

概述:这种东西,多写点,方便以后自己使用 目录 第一步:docker安装配置minio 第一步:拉取镜像 第二步:创建用于存储MinIO数据的卷 如果是最新版minio直接就使用最后的那个命令创建容器 第三步&#xff…

Linux:kubernetes(k8s)lable和selecto标签和选择器的使用(12)

通过标签是可以让我们的容器和容器之间相互认识,简单来说一边打了标签,一边使用选择器去选择就可以快速的让他们之间耦合 定义标签有两种办法,一个是文件中,一个是命令行里 我们在前几章编进文件的时候里面都有lable比如 这个就是…

观测云在 .NET 业务中分析性能问题的最佳实践

背景 某药业集团是一家以创新技术驱动的线下医疗数据 SaaS 平台建设和运营公司,其主营的某智慧医疗平台产品,围绕线下医疗场景痛点提供一体化服务解决方案。近期集团对其生物检材在线递检系统进行功能升级开发及 IaaS 平台迁移。在针对新系统和新基础设…

Java异常分类(三)

ClassCastException异常: class Animal{} class Dog extends Animal{} class Cat extends Animal{} public class Test5{public static void main(String[] args){Animal a new Dog();Cat c (Cat)a;} } 执行结果如图所示: 解决 ClassCastException 的…

第一期:LED点亮与熄灭

Q:设计简单的逻辑电路,通过DE2-115开发板上的滑动开关控制LEDR亮和熄灭状态。 A:基本原理:高电平"1"和"0"分别使LEDR点亮和熄灭,Verilog HDL的assign赋值语句即可实现; 滑动开关作为输…

使用 ReclaiMe Pro 恢复任意文件系统(Win/Linux/MacOS)

天津鸿萌科贸发展有限公司是 ReclaiMe Pro 数据恢复软件授权代理商。 ReclaiMe Pro 是一个通用工具包,几乎可以用于从所有文件系统(从 Windows 系列文件系统、Linux 和 MacOS)中恢复数据。此外,考虑到数据恢复工作的具体情况&…

MYSQL 是如何保证binlog 和redo log同时提交的?

MYSQL 一个事务在提交的时候能够保证binlog和redo log是同时提交的,并且能在宕机恢复后保持binlog 和redo log的一致性。 先来看看什么是redo log 和binlog,以及为什么要保持它们的一致性。 什么是redo log,binlog redo log是innodb引擎层…

腾讯云服务器CVM性能强大、安全、稳定详细介绍,2024年更新

腾讯云服务器CVM提供安全可靠的弹性计算服务,腾讯云明星级云服务器,弹性计算实时扩展或缩减计算资源,支持包年包月、按量计费和竞价实例计费模式,CVM提供多种CPU、内存、硬盘和带宽可以灵活调整的实例规格,提供9个9的数…

2.1_4 编码和调制

文章目录 2.1_4 编码和调制一、第一部分(一)基带信号与宽带信号(二)编码与调制 二、第二部分(一)数字数据编码为数字信号(二)数字数据调制为模拟信号(三)模拟…

【C语言】C语言内存函数

👑个人主页:啊Q闻 🎇收录专栏:《C语言》 🎉道阻且长,行则将至 前言 这篇博客是关于C语言内存函数(memcpy,memmove,memset,memcmp)的使用以及部分的模拟实现 memcpy,memmove,memset,memc…

基于private_key_jwt的客户端身份验证方法

参考文档 spring-authorization-server官网 【版本1.2.2】、 JSON Web Token (JWT) Profile for OAuth 2.0 Client Authentication and Authorization Grants规范。 针对spring-authorization-server官网在Core Model / Components部分提到的RegisteredClient对象中涉及到clien…

springboot+vue学生选课系统 java+ssm+idea+_mysql

系统包含三种角色:管理员、老师、学生,系统分为前台和后台两大模块,主要功能如下。 ide工具:IDEA 或者eclipse 编程语言: java 学生网上选课系统可以实现教室管理,老师管理,课程管理,教学计划管…