文章目录
- 宠物品种数据集
- 制作宠物品种标签
- 图像预处理Presizing
- 损失函数loss
- 观察模型的性能
- 提升模型的性能
- learning rate finder
- 使用CLR算法训练
- 选择学习率的策略
- 重新训练
- 迁移学习
- 微调fine_tune
- fit_one_cycle
- 有判别力的学习率
- 选择epoch的数量
- 更深的网络架构
宠物品种数据集
这里我们使用fastai深度学习库。
from fastai.vision.all import *
从fastai的官网下载Pets数据集,解压至本地文件夹内。
path = untar_data(URLs.PETS)
Path.BASE_PATH = path
path.ls()
制作宠物品种标签
annotations目录内的文件主要告诉了我们宠物在图像的具体位置,但我们今天要完成的任务是宠物分类。所以我们需要重新制作标签。
fname = (path/"images").ls()[0]
fname
这是一张图片的文件名,格式为“宠物名_编号.jpg”
我们的目的是提取出下划线前面的宠物名,这时候就需要用到正则表达式来提取字符串了。(正则表达式的讲解)
- (.+)可截取若干个任意字符,所以可以提取宠物品种名称
- _匹配下划线
- \d+匹配数字,在这里就是匹配了编号
- .jpg匹配后缀名
- $结束字符
re.findall(r'(.+)_\d+.jpg$', fname.name)
在fastai深度学习库中,我们有已经提前实现好的RegexLabeller类,同样实现了“根据正则表达式提取字符串”的功能,而且我们通常是在DataBlock代码块中使用。
pets = DataBlock(# Inputs类型:Image, Targets类型:Category
blocks = (ImageBlock, CategoryBlock),
# 从images目录下的子文件夹内获得数据
get_items=get_image_files,
splitter=RandomSplitter(seed=42),
# 定义对targets所作的操作,然后得到y
get_y=using_attr(RegexLabeller(r'(.+)_\d+.jpg$'), 'name'),
# 裁剪图像
item_tfms=Resize(460),
# 数据增强
batch_tfms=aug_transforms(size=224, min_scale=0.75))
dls = pets.dataloaders(path/"images")
图像预处理Presizing
接下来我们来研究一下这两行代码,
# 裁剪图像
item_tfms=Resize(460),
# 数据增强
batch_tfms=aug_transforms(size=224, min_scale=0.75))
为什么先裁剪图像然后数据增强呢?
因为在fastai深度学习库中,许多数据增强方法会让图像的质量下降,我们再裁剪的就是已经损坏的图像,那样对模型训练没有益处。
因此我们先将图像统一裁剪成460*460的大小,然后再进行数据增强。
如上图所示,Presize通常有两步:
1、把图像裁剪成相对较大的尺寸(比训练时的图像尺寸大)
2、把所有常见的数据增强增强操作变成一个组合操作,然后在GPU上执行组合操作
损失函数loss
我们使用的是交叉熵损失函数(cross-entropy loss),它适用于多目标分类。(cross-entropy loss讲解)
观察模型的性能
我们通常使用混淆矩阵confusion matrix来观察模型的表现。
如果图像的类别有n个,那么混淆矩阵的大小就是nxn,但是宠物的类别有37种,那混淆矩阵就太大了。
因此我们使用most_confused方法来查看在有着最多不正确的预测值的单元格(至少有5个)。
interp.most_confused(min_val=5)
根据研究,这两种情况下,即使是宠物专家也容易搞错,所以我们的模型效果还不错。
接下来就是考虑如何改进我们的模型了。
提升模型的性能
learning rate finder
learning rate finder的代码思想源自CLR(cyclical learning rates)算法
learning rate finder方法的主要步骤:
1、将训练集分成batch,每次循环训练一个batch
2、初始学习率(例如1e-6)较小,然后每次将学习率扩大(例如乘以2)后训练下一个batch
3、记录training loss,直到training loss不再变小反而变大停止
使用CLR算法训练
learn = vision_learner(dls, resnet34, metrics=error_rate)
lr_min, lr_steep = learn.lr_find(suggest_funcs=(minimum, steep))
什么是minimum? 使training loss达到最小的点
什么是steep? 使training loss曲线下降坡度最大的点。
选择学习率的策略
print(f"Minimum/10: {lr_min:.2e}, steepest point: {lr_steep:.2e}")
根据loss-lr图,选择学习率的策略有以下2种:
1、使training loss达到最小的学习率,在这个数值上/10
2、最后一个使training loss明显下降的点附近
根据策略2,已经知道最陡的点是2.09e-3,我们在这里取最后一个使training loss明显下降的点大约为3e-3
重新训练
现在我们使用3e-3作为学习率,重新训练模型。
learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fine_tune(2, base_lr=3e-3)
观察结果,相较于使用1e-1,使用3e-3作为学习率训练模型,使error_rate从降低到0.073!
迁移学习
微调fine_tune
预训练模型是在Imagenet数据集上训练好的模型。
当我们做迁移学习的时候,我们去除网络架构的最后一层,然后加入新的全连接层,输出数量是数据集的标签类别个数。
fine_tune方法帮助我们实现了迁移学习,非常方便实用。
当我们调用fine_tune方法时,有以下2种策略:
1)训练新添加的层指定的epoch数量,其余的层全部都冻住
2)所有层都解冻,然后再重新训练指定的epoch数量
预训练网络模型的前面几层提取大多数图片的共有特征,如边框等,因此我们不想要重新训练前面几层的权重,所以只需要冻住freeze, 而最后几个新添加的层希望被用来学习新数据集的独有特征,因此我们想要训练新添加的层的权重,需要解冻unfreeze.
要想查看某个函数的源代码,只需在后面加上??即可。
这是fine_tune方法的源代码。
Signature:
learn.fine_tune(
epochs,
base_lr=0.002,
freeze_epochs=1,
lr_mult=100,
pct_start=0.3,
div=5.0,
*,
lr_max=None,
div_final=100000.0,
wd=None,
moms=None,
cbs=None,
reset_opt=False,
start_epoch=0,
)
Source:
@patch
@delegates(Learner.fit_one_cycle)
def fine_tune(self:Learner, epochs, base_lr=2e-3, freeze_epochs=1, lr_mult=100,
pct_start=0.3, div=5.0, **kwargs):
"Fine tune with `Learner.freeze` for `freeze_epochs`, then with `Learner.unfreeze` for `epochs`, using discriminative LR."
self.freeze()
self.fit_one_cycle(freeze_epochs, slice(base_lr), pct_start=0.99, **kwargs)
base_lr /= 2
self.unfreeze()
self.fit_one_cycle(epochs, slice(base_lr/lr_mult, base_lr), pct_start=pct_start, div=div, **kwargs)
File: /usr/local/lib/python3.10/dist-packages/fastai/callback/schedule.py
Type: method
从上面可以看到,在源代码中使用了fit_one_cycle函数。
我们接下来自己手动模拟一个fine_tune函数。不过,在这之前,先来了解一下fit_one_cycle函数
fit_one_cycle
fit_one_cycle的作用是,先以较低的学习率开始训练,慢慢增加到指定最大学习率后,再逐渐减小学习率。
我们先训练模型3个epoch,创建好vision_learner以后,除新添加的层外,其余层默认是被冻住的。此时我们训练的就只有刚刚添加的层。
learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fit_one_cycle(3, lr_max=3e-3)
我们接下来查看学习率的变化曲线,以及损失的变化曲线
learn.recorder.plot_sched()
learn.recorder.plot_loss()
我们可以看出:
1)学习率一开始很小,loss比较大
2)学习率增大并逐渐到达最大值,loss变小
3)学习率又逐渐变小,loss也在变小
因此fit_one_cycle函数的代码实现了learning rate annealing算法,它也被称为学习率退火算法。
好了,话说回来,我们继续手动搭建自己的fine_tune函数,来训练我们的模型。
一开始我们训练了3个epoch,现在我们将模型所有的层都解冻。
learn.unfreeze()
我们需要重新再使用learning rate finder, 因为模型的权重已经发生了改变,所有我们要找到新的最佳的learning rate
learn.lr_find()
基于选择学习率的策略2,从上图中我们可以看出最后一个明显下降的点在1e-4附近,但我们选择略小一点的,所以是1e-5,接下来我们继续训练6个epoch
learn.fit_one_cycle(6, lr_max=1e-5)
从上图中可以看出,我们模型的error_rate已经从刚刚的0.074降低到0.059了!
有判别力的学习率
因为预训练的层已经能够识别边缘等,但对于具体任务的特征还需要训练,所以新添加的层就相较于预训练层使用大一点的学习率。
新论文中提出较早的层使用较小的学习率训练,新添加的层用较大的学习率训练。
Python中的slice(,)对象指明了学习率。
第一个参数,是用于训练第一层的学习率;第二个参数,是用于训练最后一层的学习率;中间的层的学习率是在这个范围内等距增加的。
先使用学习率3e-3训练3个epoch,然后将所有的网络参数解冻。然后再继续训练12个epoch,但不同的层学习率也不同,第一层为1e-6, 最后一层为1e-4, 中间的层等距增加。
learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fit_one_cycle(3, 3e-3)
learn.unfreeze()
learn.fit_one_cycle(12, lr_max=slice(1e-6,1e-4))
从上面的表格中我们可以发现,error_rate降低到了0.0541
我们来对比一下源代码,和我们基于自己模型创建的fine_tune方法
## 这是源代码
def fine_tune(self:Learner, epochs, base_lr=2e-3, freeze_epochs=1, lr_mult=100,
pct_start=0.3, div=5.0, **kwargs):
self.freeze()
self.fit_one_cycle(freeze_epochs, slice(base_lr), pct_start=0.99, **kwargs)
base_lr /= 2
self.unfreeze()
self.fit_one_cycle(epochs, slice(base_lr/lr_mult, base_lr), pct_start=pct_start, div=div, **kwargs)
## 这是我们自己的版本
learn = vision_learner(dls, resnet34, metrics=error_rate)
learn.fit_one_cycle(3, 3e-3)
learn.unfreeze()
learn.fit_one_cycle(12, lr_max=slice(1e-6,1e-4))
有人可能会想问“为什么源代码中就有self.freeze()呢?”
因为在初始化vision_learner的时候,其源函数中有这样一行代码,if pretrained: learn.freeze(),所有创建好learner对象后,其实已经处于冻结状态了。
选择epoch的数量
- 选择你愿意等待的训练时间的epoch数量,开始训练
- 观察training loss和validation loss图,也要注意metrics,如果在最后的几个epoch中,loss和metrics仍然能变得更好,那说明我们训练的时间还不够长
- 在训练的最后几个epoch中,validation loss变得更差,而且metrics也变得更差,说明我们训练的时间太长了。
- 此外,如果过拟合了,重新训练你的模型,并且基于之前的结果,重新设定epoch数。
在one cycle策略出现之前,我们通常使用early stopping早停策略。也就是,在训练的每一个epoch结束后,
我们会把权重保存下来,最后从中选择一个最佳的模型。 但有时候early stopping策略并不能使我们获得最好的结果,在学习率达到很小的值(同时让模型表现最佳)之前,中间的那些epoch已经发生了。
因此,如果你发现已经过拟合了,你要做的是重新训练你的模型,并且基于之前的结果,重新设定epoch数。
如果你有更多的时间训练更多的epoch,那么我们也可以选择把这么多的时间用于训练更多的参数,即更深的网络架构。
更深的网络架构
- 好处:一般来说,更深的网络架构意味着更多的参数,这也使得我们的模型能学习更多与数据相关的特征,使得准确率更高。
- 坏处:大量参数意味着需要占用很大的gpu内存,也需要很长的训练时间
因此,有一种方法叫作“半精度训练”,即在训练的时候,使用“半精度浮点数”(fp16),使得训练速度大大加快,也减少了内存使用。在fastai深度学习库中,我们直接让learner对象调用to_fp16()方法。
from fastai.callback.fp16 import *
learn = vision_learner(dls, resnet50, metrics=error_rate).to_fp16()
learn.fine_tune(6, freeze_epochs=3)
这里我自己采用resnet152,并且使用单精度训练的方式,冻住预训练权重并训练2个epoch;然后解冻模型并训练5个epoch
from fastai.callback.fp16 import *
learn = vision_learner(dls, resnet152, metrics=error_rate).to_fp16()
learn.fine_tune(5, freeze_epochs=2)
从下图可以看出,我的模型的error_rate降低到了0.045!
如果大家有更好的方法,欢迎大家评论,我很想学习。