1 卷积神经网络(CNN)可以做什么?
- 检测任务
- 分类与检索
- 超分辨率重构:将图像训练的更清晰
- 医学任务等
- 无人驾驶
- 人脸识别
2 用GPU:图像处理单元
比CPU块一百倍以上
3 卷积神经网络与传统神经网络的区别
传统神经网络:将数据拉成向量
卷积神经网络:三维数据
4 整体架构
- 输入层
- 卷积层:提取特征
- 池化层:压缩特征
- 全链接层
5 卷积进行特征提取:
绿色的:特征图
6 步长与卷积核大小对结果的影响
卷积网络中可以无限堆叠,但是并不是堆叠次数越高效果越好
7 卷积层涉及参数
- 滑动窗口步长:移动窗口移动的步长决定特征图的大小(丰富度)一般为1
- 卷积核尺寸:一般用正方形卷积3✖️3(图像)
- 边缘填充:边缘的数据不一定不重要,所以用0填充图像的边缘保证图像数据被充分利用
- 卷积核个数:最后在计算过程当中要得到多少个特征图(相等)每个卷积核里面的数据都是不一样的:卷积核就是权重参数的三维版本
8 特征图尺寸计算与参数共享
9 卷积参数共享
每个区域都是用相同的核进行训练的,参数是全局共享的
10 池化层的作用
池化层:进行压缩(下采样操作)相当于是数据瘦身
11 整体网络架构
全联接层要将所有的特征值拉成一个特征向量,然后进行五分类操作
【10240,5】将10240个特征转化成五个类别的概率
12 怎么判断神经网络有多少层
带参数计算的才算一层:卷积层,全联接层(上图为七层神经网络)
激活层,池化层没有参数,不算一层
13 特征图的变换
14 历史上几种经典的神经网络
2014年:经典网络-VGG
所有卷积大小都是3✖️3 精细提取网络特征
当pooling之后会有数据损失,下次用卷积弥补起来,用特征图的个数弥补数据的确实
问题就是训练时间太久了,但效率比AIEXNEX高15%左右
2015年:经典网络-Resnet 残差网络
现在是主流网络结构 最常见的是50层和101层
想要把层数堆叠起来,并且将不利于模型的层权重设为零
所以深度网络效果只能越来越好
左图:传统网络 右图:残差网络
15 感受野
我们希望感受野越大越好