神经网络算法解读
机器学习流程:
- 数据获取
- 特征工程
- 建立模型
- 评估与应用
图像数据是一个矩阵300 * 100 * 3
线性函数分类方法:分类(wx+b线性回归)
损失函数:预测值与实际值之间的差异值
softmax分类器:
神经网络整体架构(在每一层中进行特征提取)
- 层次结构
- 神经元
- 全连接
- 非线性
引入一些非线性函数(激活函数):解决非线性问题
过拟合问题:过拟合问题是神经网络中的一个大问题—可以使用一定的方法降低过拟合问题。
卷积神经网络解读
输入图像,得到特征矩阵—卷积的作用
输入一张图像在3*3的区域内得到其特征值
三个蓝色的区域分别代表(R G B)三个颜色的通道。进行特征的提取
Filter:(3 * 3 * 3 ):第一3*3代表的在原始特征之中每3 * 3的区域内选择一个特征
第三个3代表的是三个通道(RGB)-和输入的维度保持一致
内积:两个向量关系大是值大,关系小时得到的值小
计算方法:对应位置相乘在求和。在输出特征值的过程中需要和b相加。
在走完每一行后依次向下走两个单位直到完全遍历完得到特征图的信息。(绿色的特征图-矩阵)
涉及到的参数:
- 卷积核(卷积核越小得到的特征越多一般都选择3*3)随机初始化
- 卷积核filterw0 filterw1根据特征预测的结果不断的调整参数
- Bias(b)也要不断的进行更新。
- 步长:一般情况下比较小,一般为1。
- padding(在周围的一圈加0-在里面的像素点计算次数多)-边缘填充
卷积层涉及参数
卷积层:进行特征提取的
- 滑动窗口步长
- 卷积核尺寸(3 * 3 5 * 5)
- 边缘填充
- 卷积核个数(尽量多)
卷积运算不能只做一次,需要做多次
第二层的运算是在第一层的基础上进行运算-可以看到的特征更多,层次越多看到的特征越是全局的特征。—深层信息
其中引入了一个概念:感受野
感受野
特征图中的一个点相当于图片中多大的区域,层数越多感受野越大。
感受野从3 * 3 到 5 * 5的区域
卷积结构的计算公式
池化层
输入是一个特征图进行压缩的一个过程。
h w进行压缩二c(第三个参数不变)
Max_pooling:最大池化
数值大的特征学的越来越大,不重要的特征学的越来越小。
包括了:卷积层,激活函数层,池化层,fc(全连接层进行输出)
经典卷积神经网络:
- AlexNet
- Vgg(3*3)
- Resnet 15年 何凯明