先说一下深度学习常见的问题:
1.数据集不够,通常用数据增强解决。
2.参数难以确定,训练时间长,这就需要用迁移学习来解决
什么叫迁移学习呢:比方说有一个对100w的自行车数据集,并用VGG模型训练好的网络,而此时你想训练一个1w自行车数据集(虽然对象一样,但采集的数据会不同),也用VGG模型进行训练,你发现,你们数据集的对象一样,选用的网络模型一样,此时在初始化自己模型权重(就是卷积层,池化层和全连接层的参数)时,可以用人家训练好的模型参数(如果不这样就需要随机初始化模型权重),这样做可以节省大量寻找最优参数的时间,又可以保证参数的准确。
总结:迁移学习就是用别人的东西训练自己的东西,但要注意,为了使用别人的模型参数,要保证自己的数据对象、网络结构、输入和输出数据的结构和别人相同。比方说,别人识别狗,你不能识别猫,别人用VGG你不能用resnet,别人输入和输入图像大小是224×224.你不能是256×256。
进一步理解迁移学习的使用1:看下图最大的红框,表示卷积层,当用别人的模型时,对卷积层的两种处理方式。
A:作为自己模型权重的初始化参数。
B:冻结卷积层网络,意思是直接用别人的参数,不再更新。冻结卷积层网络又分几种情况。
B1:当数据量小时,冻结第二大红框表示的卷积层,剩下卷积层进行更新。因为数据量小时,容易过拟合,直接用别人的参数最好。
B2:当数据量中等时冻结最小红框表示的卷积层,剩下的卷积层进行更行。
B3:当数据量足够大时,不冻结卷积层,用A的方法,只作为自己模型权重的初始化参数。数据量大时,虽然对象一样,但毕竟数据不同,会有一定差异,更新参数是最优选择。
进一步理解迁移学习的使用2:说完卷积层,在说一下全连接层,必须要注意不,管卷积层选A还是B,全连接层都是要更新的,原因在于,别人模型进行图像分类可能是进行1000个分类,而你只进行100或者999个分类,那么全连接层的参数肯定是不同的。
将迁移学习应用于图像分类:
pytorch实战-图像分类(一)(数据预处理)
pytorch实战-图像分类(二)(模型训练及验证)(基于迁移学习(理解+代码))