YOLOv8 是Ultralytics的YOLO的最新版本。作为一种前沿、最先进(SOTA)的模型,YOLOv8在之前版本的成功基础上引入了新功能和改进,以提高性能、灵活性和效率。YOLOv8支持全范围的视觉AI任务,包括检测, 分割, 姿态估计, 跟踪, 和分类。这种多功能性使用户能够利用YOLOv8的功能应对多种应用和领域的需求。
代码地址:https://github.com/ultralytics/ultralytics
一、数据集预处理
yolov8的数据集格式处理可以参考我的这篇博客:yolo系列模型训练数据集全流程制作方法(附数据增强代码)
这里就不再详细讲述,处理完并划分训练集和验证集后格式为下:
- mydata
|- train
| |- images
| |- labels
|
|- val
| |- images
| |- labels
处理完以后,自己创建一个mydata.yaml
文件,文件内容如下:
train: mydata/train/images
val: mydata/val/images
#如果按照上述方式建立文件夹,则上面train、test和val地址可以不变
nc: 8 #标签类别个数
names: ['0', '1', '2', '3', '4', '5', '6', '7'] #标签名
#上面nc和names可以根据自己的数据集进行修改
然后将mydata.yaml
直接放到yolov8代码的主目录下即可,即./ultralytics-main
下。
二、训练
使用yolov8的小伙伴可以发现,yolov8同v5、v7不太一样,里面的文件代码路径什么的都发生了很大的变化,所以刚上手可能会觉得非常的不知所措。但是,其实v8训练起来同前面的版本相比更加简单,可以直接用yolo命令进行训练。
首先,我们需要安装 ultralytics
这个库。
pip install ultralytics
然后直接使用下面的指令在命令行进行单卡训练即可:
yolo task=detect mode=train model=yolov8n.pt data=mydata.yaml batch=32 epochs=100 imgsz=640 workers=16 device=0
注意:
1. 如果是在windows系统中训练yolov8的话,worker设置成0,如果是Linux或服务器的话,就可以设置成8或16等。
2. 如果训练过程中报了路径的错误,那么就将mydata.yaml改为绝对路径。
训练成功如下图所示:
如果你有服务器,想要进行多卡训练,则使用下面的命令:
yolo task=detect mode=train model=yolov8n.pt data=mydata.yaml batch=32 epochs=100 imgsz=640 workers=16 device=\'0,1,2,3\'
三、验证
在训练完以后,我们可以使用验证集对模型的性能进行一个验证,具体命令如下:
yolo task=detect mode=val model=runs/detect/train/weights/best.pt data=mydata.yaml device=0
四、预测
对图片进行预测的代码如下:
yolo task=detect mode=predict model=runs/detect/train/weights/best.pt source=inferdata device=0
如果想要将检测的结果导出labels的txt文件的话,命令如下:
yolo task=detect mode=predict model=runs/detect/train/weights/best.pt source=inferdata save_txt=True device=0
对模糊图片的检测结果如下:
五、导出ONNX模型
导出onnx的代码如下:
yolo task=detect mode=export model=runs/detect/train/weights/best.pt format=onnx