YOLOv8 快速入门

news2024/11/25 3:37:49

前言

本文是 YOLOv8 入门指南(大佬请绕过),将会详细讲解安装,配置,训练,验证,预测等过程

YOLOv8 官网:ultralytics/ultralytics: NEW - YOLOv8 🚀 in PyTorch > ONNX > OpenVINO > CoreML > TFLite (github.com)

image-20230907184341725

注意:如果遇到权重文件,模型文件下载缓慢的问题,可以在自己本机上下载,再上传到服务器。也可以选择代理或是 IDM 这样的下载软件

安装配置

虚拟环境

本文使用 conda 创建虚拟环境,没有配置 conda 也可以使用 python venv 虚拟环境

# 创建环境
conda create -n pytorch python=3.8 -y
# 查看环境
conda env list
# 激活环境
conda activate pytorch

安装依赖

请自行到 Pytorch 官网寻找安装命令(需要保证 PyTorch>=1.8)

image-20230907184516744

# 请自行替换命令
pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cpu

拉取仓库

git clone https://github.com/ultralytics/ultralytics.git
cd ultralytics
# 安装依赖
pip install -e .

如果只是想要快速尝试训练自定义数据集并预测结果,可以跳过后面章节教学,直接跳到最后章节的实战演练

两种使用方式

YOLO 命令行

YOLO命令行界面(command line interface, CLI), 方便在各种任务和版本上训练、验证或推断模型。CLI不需要定制或代码,可以使用 yolo 命令从终端运行所有任务。

【YOLO CLI 官方文档】:CLI - Ultralytics YOLOv8 Docs

语法(Usage)

yolo TASK MODE ARGS

Where   TASK (optional) is one of [detect, segment, classify]
        MODE (required) is one of [train, val, predict, export, track]
        ARGS (optional) are any number of custom 'arg=value' pairs like 'imgsz=320' that override defaults.

查看所有参数:yolo cfg

训练(Train)

在COCO128上以图像大小 640 训练 YOLOv8n 100 个 epoch

yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

恢复中断的训练

yolo detect train resume model=last.pt

验证(Val)

在COCO128数据集上验证经过训练的 YOLOv8n 模型准确性。无需传递参数,因为它 model 保留了它的训练 data 和参数作为模型属性。

yolo detect val model=path/to/best.pt

预测(Predict)

使用经过训练的 YOLOv8n 模型对图像运行预测。

yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg'

导出(Export)

将 YOLOv8n 模型导出为不同的格式,如 ONNX、CoreML 等。

yolo export model=path/to/best.pt format=onnx

可用导出形式如下

Format 格式format Argumentformat 论点Model 型Metadata 元数据Arguments 参数
PyTorch-yolov8n.pt--
TorchScripttorchscriptyolov8n.torchscriptimgsz, optimize-
ONNXonnxyolov8n.onnximgsz, half, dynamic, simplify, opset-
OpenVINOopenvinoyolov8n_openvino_model/imgsz, half-
TensorRTengineyolov8n.engineimgsz, half, dynamic, simplify, workspace-
CoreMLcoremlyolov8n.mlpackageimgsz, half, int8, nms-
TF SavedModelsaved_modelyolov8n_saved_model/imgsz, keras-
TF GraphDefpbyolov8n.pbimgsz-
TF Litetfliteyolov8n.tfliteimgsz, half, int8-
TF Edge TPUedgetpuyolov8n_edgetpu.tfliteimgsz-
TF.jstfjsyolov8n_web_model/imgsz-
PaddlePaddlepaddleyolov8n_paddle_model/imgsz-
ncnnncnnyolov8n_ncnn_model/imgsz, half-

覆盖默认配置文件

首先使用命令 yolo copy-cfg 在当前工作目录中创建一个 default.yaml 的副本 default_copy.yaml,之后即可指定配置文件来覆盖默认配置文件

yolo cfg=default_copy.yaml imgsz=320

Python 脚本

YOLOv8 可以无缝集成到 Python 项目中,以进行对象检测、分割和分类。同时易于使用的 Python 界面是一个宝贵的资源,能够快速实现高级对象检测功能

【YOLO Python 官方文档】:CLI - Ultralytics YOLOv8 Docs — CLI - Ultralytics YOLOv8 文档

示例

from ultralytics import YOLO

# 从头开始创建一个新的YOLO模型
model = YOLO('yolov8n.yaml')

# 加载预训练的YOLO模型(推荐用于训练)
model = YOLO('yolov8n.pt')

# 使用'coco128.yaml'数据集对模型进行训练,训练3个epoch
results = model.train(data='coco128.yaml', epochs=3)

# 在验证集上评估模型的性能
results = model.val()

# 使用模型对图像进行目标检测
results = model('https://ultralytics.com/images/bus.jpg')

# 将模型导出为ONNX格式
success = model.export(format='onnx')

image-20230908110241109

image-20230908112306725

训练

训练模式用于在自定义数据集上训练 YOLOv8 模型。在此模式下,使用指定的数据集和超参数训练模型。训练过程涉及优化模型的参数,以便它可以准确地预测图像中对象的类别和位置。

预训练(From pretrained 推荐使用)

from ultralytics import YOLO

model = YOLO('yolov8n.pt') # pass any model type
results = model.train(epochs=5)

初始训练(From scratch)

from ultralytics import YOLO

model = YOLO('yolov8n.yaml')
results = model.train(data='coco128.yaml', epochs=5)

恢复训练(Resume)

model = YOLO("last.pt")
results = model.train(resume=True)

验证

Val 模式用于在训练 YOLOv8 模型后对其进行验证。在此模式下,在验证集上评估模型,以衡量其准确性和泛化性能。此模式可用于调整模型的超参数以提高其性能。

训练后验证

from ultralytics import YOLO

# 导入YOLO模型
model = YOLO('yolov8n.yaml')

# 使用'coco128.yaml'数据集对模型进行训练,训练5个epoch
model.train(data='coco128.yaml', epochs=5)

# 对训练数据进行自动评估
model.val()  # 它会自动评估您训练的数据。

单独验证

from ultralytics import YOLO

# 导入YOLO模型
model = YOLO("model.pt")
# 如果您没有设置data参数,它将使用model.pt中的数据YAML文件。
model.val()
# 或者您可以设置要验证的数据
model.val(data='coco128.yaml')

预测

预测模式用于使用经过训练的 YOLOv8 模型对新图像或视频进行预测。在此模式下,模型从检查点文件加载,用户可以提供图像或视频来执行推理。该模型预测输入图像或视频中对象的类别和位置。

from ultralytics import YOLO
from PIL import Image
import cv2

model = YOLO("model.pt")
# 接受各种格式 - 图像/目录/路径/URL/视频/PIL/ndarray。0表示网络摄像头
results = model.predict(source="0")
results = model.predict(source="folder", show=True) # 显示预测结果。接受所有YOLO预测参数

# 使用PIL库
im1 = Image.open("bus.jpg")
results = model.predict(source=im1, save=True)  # 保存绘制的图像

# 使用ndarray
im2 = cv2.imread("bus.jpg")
results = model.predict(source=im2, save=True, save_txt=True)  # 将预测结果保存为标签

# 使用PIL/ndarray列表
results = model.predict(source=[im1, im2])

导出

导出模式用于将 YOLOv8 模型导出为可用于部署的格式。在此模式下,模型将转换为可供其他软件应用程序或硬件设备使用的格式。将模型部署到生产环境时,此模式非常有用。

from ultralytics import YOLO

model = YOLO('yolov8n.pt')
model.export(format='onnx', dynamic=True)

跟踪

跟踪模式用于使用 YOLOv8 模型实时跟踪对象。在此模式下,模型从检查点文件加载,用户可以提供实时视频流来执行实时对象跟踪。此模式对于监控系统或自动驾驶汽车等应用非常有用。

from ultralytics import YOLO

# 加载模型
model = YOLO('yolov8n.pt')  # 加载官方的检测模型
model = YOLO('yolov8n-seg.pt')  # 加载官方的分割模型
model = YOLO('path/to/best.pt')  # 加载自定义模型

# 使用模型进行目标跟踪
results = model.track(source="https://youtu.be/Zgi9g1ksQHc", show=True)
results = model.track(source="https://youtu.be/Zgi9g1ksQHc", show=True, tracker="bytetrack.yaml")

训练器

YOLO模型类是Trainer类的高级包装器。每个YOLO任务都有自己的从BaseTrainer继承来的训练器。

from ultralytics.yolo import v8 import DetectionTrainer, DetectionValidator, DetectionPredictor

# trainer
trainer = DetectionTrainer(overrides={})
trainer.train()
trained_model = trainer.best

# Validator
val = DetectionValidator(args=...)
val(model=trained_model)

# predictor
pred = DetectionPredictor(overrides={})
pred(source=SOURCE, model=trained_model)

# resume from last weight
overrides["resume"] = trainer.last
trainer = detect.DetectionTrainer(overrides=overrides)

多任务支持

下面示例主要使用 Python 脚本的形式,CLI 形式可以自行到官网找到对应示例代码

官方文档:Train - Ultralytics YOLOv8 Docs

目标检测

物体检测是一项涉及识别图像或视频流中物体的位置和类别的任务。

对象检测器的输出是一组包围图像中的对象的包围框,以及每个框的类标签和置信度分数。当你需要识别场景中感兴趣的物体,但不需要知道物体的确切位置或它的确切形状时,物体检测是一个很好的选择。

训练

在图像大小为 640 的 COCO128 数据集上训练 YOLOv8n 100 个 epoch。

设备是自动确定的。如果 GPU 可用,则将使用它,否则将在 CPU 上开始训练。

from ultralytics import YOLO

# 加载一个模型
model = YOLO('yolov8n.yaml')  # 从YAML文件构建一个新模型
model = YOLO('yolov8n.pt')  # 加载一个预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML文件构建模型并加载权重

# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)

可以使用 device 参数指定训练设备。如果未传递任何参数,则将使用 GPU device=0 (如果可用),否则 device=cpu 将使用。

from ultralytics import YOLO

# 加载一个模型
model = YOLO('yolov8n.pt')  # 加载一个预训练模型(推荐用于训练)

# 使用2个GPU训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])

验证

Val 模式用于在训练 YOLOv8 模型后对其进行验证。在此模式下,在验证集上评估模型,以衡量其准确性和泛化性能。此模式可用于调整模型的超参数以提高其性能。

YOLOv8 模型会自动记住其训练设置,因此您只需 yolo val model=yolov8n.pt 使用 or model('yolov8n.pt').val() 即可在原始数据集上轻松验证相同图像大小和原始数据集上的模型

在COCO128数据集上验证经过训练的 YOLOv8n 模型准确性。无需传递参数,因为它 model 保留了它的训练 data 和参数作为模型属性

from ultralytics import YOLO

# 导入模型
model = YOLO('yolov8n.pt')  # 加载一个官方模型
model = YOLO('path/to/best.pt')  # 加载一个自定义模型

# 验证模型
metrics = model.val()  # 不需要参数,数据集和设置会被记住
metrics.box.map    # mAP50-95
metrics.box.map50  # mAP50
metrics.box.map75  # mAP75
metrics.box.maps   # 包含每个类别的mAP50-95的列表

预测

YOLOv8 预测模式可以为各种任务生成预测,在使用流式处理模式时返回对象列表或内存高效的 Results Results 对象生成器。通过传入 stream=True 预测器的调用方法来启用流式处理模式。

YOLOv8 可以处理不同类型的输入源进行推理,如下表所示。源包括静态图像、视频流和各种数据格式。该表还指示每个源是否可以在流模式下与参数 stream=True ✅一起使用。流式传输模式有利于处理视频或实时流,因为它会创建结果生成器,而不是将所有帧加载到内存中

from ultralytics import YOLO

# 导入模型
model = YOLO('yolov8n.pt')  # 加载一个预训练的YOLOv8n模型

# 对图像列表进行批量推理
results = model(['im1.jpg', 'im2.jpg'])  # 返回一个Results对象列表

# 处理结果列表
for result in results:
    boxes = result.boxes  # 用于边界框输出的Boxes对象
    masks = result.masks  # 用于分割掩模输出的Masks对象
    keypoints = result.keypoints  # 用于姿势输出的Keypoints对象
    probs = result.probs  # 用于分类输出的Probs对象

导出

导出模式用于将 YOLOv8 模型导出为可用于部署的格式。在此模式下,模型将转换为可供其他软件应用程序或硬件设备使用的格式。将模型部署到生产环境时,此模式非常有用。

from ultralytics import YOLO

# 导入模型
model = YOLO('yolov8n.pt')  # 加载一个官方模型
model = YOLO('path/to/best.pt')  # 加载一个自定义训练的模型

# 导出模型
model.export(format='onnx')

实例分割和目标分类此处不再赘述,可以自行查找官方文档

实战演练

下面将会自定义训练目标检测数据集

注意:没有特殊说明,路径均是以项目根目录为准

官方数据集

首先下载权重文件并将放到 ultralytics 项目根目录

image-20230908154536606

之后测试预训练模型的效果,在根目录执行如下命令

yolo predict model=yolov8n.pt source=ultralytics/assets/bus.jpg

image-20230908160147447

之后我们查看保存的检测好的图片 /root/Development/ultralytics/runs/detect/predict2

image-20230908160310209

训练 COCO128 数据集(这里可以配置 tensorboard 可视化面板,这里不赘述)

yolo train data=coco128.yaml model=yolov8n.pt epochs=3 lr0=0.01 batch=4

与此同时根目录下面生成了一个datasets文件夹,里面有 coco128 的数据集

注意:这里的 datasets 下载目录是在 ~/.config/Ultralytics/settings.yaml 文件中定义的,可以后续修改

image-20230908162607162

之后查看存储的训练结果的文件夹,weights 文件夹里面装的是效果最好的一次权重文件以及最后一轮训练的权重文件

自定义数据集

下载数据集

【下载地址】:Mask Wearing Dataset - raw (roboflow.com)

image-20230907185115131

然后下载 zip 压缩包即可

配置数据集

上传到项目根目录的 datasets,并重命名数据集为 MaskDataSet(本次演示直接使用下载的数据集,后面的部分步骤是针对自己制作数据集的要求)

data.yaml修改如下

path: ../datasets/MaskDataSet
train: ./train/images
val: ./valid/images
test: ./test/images

nc: 2
names: ['mask', 'no-mask']

roboflow:
  workspace: joseph-nelson
  project: mask-wearing
  version: 4
  license: Public Domain
  url: https://universe.roboflow.com/joseph-nelson/mask-wearing/dataset/4

划分数据集

我们需要将数据集按照指定比例划分(训练集:验证集:测试集=7:2:1)

【数据集划分脚本】:division-of-data/DivisionOfData.py at main · kuisec/division-of-data (github.com)

标注数据集

安装 lableme,执行 pip install labelme,然后命令行输入 labelme即可进入图形化界面

但是注意:labelme 生成的标签是 json 文件的格式,后续需要转化成 txt 文件才能被 yolov 使用

这里说下两种标注工具 labelImg 和 labelme 的区别

labelimg 是一种矩形标注工具,常用于目标识别和目标检测,其标记数据输出为.xml和.txt

labelme 是一种多边形标注工具,可以准确的将轮廓标注出来,常用于分割,其标记输出格式为json

【数据集标注文件格式转换脚本】:DeepLearning/others/label_convert at master · KKKSQJ/DeepLearning (github.com)

训练数据集

yolo train data=datasets/MaskDataSet/data.yaml model=yolov8n.pt epochs=10 lr0=0.01 batch=4

image-20230908194611414

使用效果最好的权重文件进行预测测试(需要提前上传 ultralytics/assets/mask.jpg口罩图片)

yolo predict model=runs/detect/train26/weights/best.pt source=ultralytics/assets/mask.jpg

查看最终效果

image-20230908194753360

参考文章

YOLOv8详解 【网络结构+代码+实操】_zyw2002的博客-CSDN博客

YOLOv8教程系列:一、使用自定义数据集训练YOLOv8模型(详细版教程,你只看一篇->调参攻略),包含环境搭建/数据准备/模型训练/预测/验证/导出等_Zhijun.li@Studio的博客-CSDN博客

零基础教程:使用yolov8训练自己的目标检测数据集_Dragon_0010的博客-CSDN博客

YOLOv5实操——检测是否戴口罩-CSDN博客

本文由博客一文多发平台 OpenWrite 发布!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/989215.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

异步编程 - 12 异步、基于事件驱动的网络编程框架 Netty

文章目录 Netty概述Netty中的一些概念Netty的线程模型Netty Server端Netty Netty 端 TCP半包与粘包问题基于Netty与CompletableFuture实现RPC异步调用 Netty概述 Netty是一个异步、基于事件驱动的网络应用程序框架,其对Java NIO进行了封装,大大简化了TC…

Milvus Cloud扩展变更:为向量数据库注入前沿增强功能

在向量数据库的不断变化中,Milvus Cloud已成为一个改变游戏规则的先锋,革新了我们存储、搜索和分析复杂向量数据的方式。通过最新版本的Milvus Cloud2.3.0,引入了一系列重要的增强和修改,为更强大、更高效的向量数据库解决方案铺平了道路。在本文中,我们将深入探讨Milvus …

自然语言处理-词向量模型-Word2Vec

通常数据的维度越高,能提供的信息也就越多,从而计算结果的可靠性就更值得信赖 如何来描述语言的特征呢,通常都在词的层面上构建特征,Word2Vec就是要把词转换成向量 假设现在已经拿到一份训练好的词向量,其中每一个词都…

Layui自定义列表多选

需求:已回访不需要分配,未回访的可多选分配 效果图: 实现方式 1,自定义复选 2,已回访的框去掉 3,自己写全选方法 注意:要想进方法一定要写lay-filter,才能触发方法&#xff0…

盘点使用代理IP时常会遇到的HTTP代理错误代码

如今,随着全球化的深入发展,越来越多的企业开始向海外拓展业务。跨境电商、海外营销等业务的兴起,使人们对HTTP代理的需求量越来越大。然而,在使用HTTP代理的过程中,常常会遇到各种错误代码,这些错误代码产…

Linux:进程(概念)

学习目标 1.认识冯诺依曼系统 2.认识操作系统概念与定位 (系统调用接口) 3.理解进程的概念(PCB) 4.理解进程的状态(fork创建进程,僵尸进程及孤儿进程) 5.了解进程的调度(优先级,竞争性&#xff…

2023-2024 人工智能专业毕设如何选题

文章目录 0 简介1 如何选题2 最新毕设选题3 最后 0 简介 学长搜集分享最新的人工智能专业毕设选题,难度适中,适合作为毕业设计,大家参考。 学长整理的题目标准: 相对容易工作量达标题目新颖 1 如何选题 最近非常多的学弟学妹问…

基于单片机压力传感器MPX4115检测-报警系统-proteus仿真-源程序

一、系统方案 本设计采用52单片机作为主控器,液晶1602显示,MPX4115检测压力,按键设置报警,LED报警。 二、硬件设计 原理图如下: 三、单片机软件设计 1、首先是系统初始化 /***************************************…

类,这一篇文章你就懂了!

提示:本文主要介绍C中类相关知识及基础概念总结 渺渺何所似,天地一沙鸥 文章目录 一、面向对象与面向过程二、类的框架知识2.1 类的定义2.2 类的封装性2.2.1 访问限定符2.2.2 封装的概念以及实现 2.3 类的作用域及实例化2.4 类中this指针 三、六大默认成…

使用feign时提供者从request中获取不到参数值解决方法

使用feign时提供者从request中获取不到参数值解决方法 问题:分析:解决办法 问题: 在开发中,A项目需要在后端调用B项目的feign接口。B项目原来的参数接收都是在httpServletRequest里面,如下图: 我们知道feign接口是不…

6.Xaml CheckBox控件

1.运行图片 2.运行源码 a.xaml 源码 <Grid Name="Grid1"><!--IsThreeState="True" 这个为true的时候,有三个状态 第三个状态为什么也没有--><CheckBox Name=

Redis原理:动态字符串SDS

&#xff08;课程总结自b站黑马程序员课程&#xff09; 一、引言 Redis中保存的Key是字符串&#xff0c;value往往是字符串或者字符串的集合。可见字符串是Redis中最常用的一种数据结构。 不过Redis没有直接使用C语言中的字符串&#xff0c;因为C语言字符串存在很多问题&…

FD2257H 带有嵌入式霍尔传感器的智能电机驱动器芯片

FD2257H 带有嵌入式霍尔传感器的智能电机驱动器芯片 特征 电机驱动器与高灵敏度霍尔效应传感器 h桥MOS驱动器 锁关闭保护和自动重启功能 “软开关“相切换技术减少振动和声噪音 热停机保护&#xff08;TSD&#xff09; 可在SIP-4L包 12V或24V DC电机/风扇系统 一般说明 FD2257H…

Day8:浅谈useMemo

「目标」: 持续输出&#xff01;每日分享关于web前端常见知识、面试题、性能优化、新技术等方面的内容。 Day8-今日话题 useMemo 是 React 中一个有力的性能优化Hook。可从「用法」、「工作原理」、「作用」、「优缺点」、「使用场景」、「使用注意点」进行学习、复习。 拿vue作…

【LangChain系列 5】Prompt模版——特征库

原文地址&#xff1a;【LangChain系列 5】Prompt模版——特征库 本文速读&#xff1a; Feast Featureform 特征库(feature stores)是传统机器学习中的一个概念&#xff0c;本质上是数据&#xff0c;不同维度/属性的数据&#xff0c;而且可以保持同步更新&#xff0c;所以可以…

React中函数式组件与类组件有何不同?

Function Component 与 Class Component 有何不同 目录 Function Component 与 Class Component 有何不同 文章核心观点&#xff1a; 解释一下&#xff1a; 总结&#xff1a; 文章核心观点&#xff1a; Function components capture the rendered values.函数式组件捕获…

【PyQT5教程】-02-UI组件

1.按钮 QtWidgets模块提供了多种按钮类&#xff0c;让你可以轻松地创建各种类型的按钮 1.1 QPushButton&#xff08;普通按钮&#xff09; QPushButton是PyQt5中最常见的按钮类型之一&#xff0c;用于触发动作或执行操作。通过信号与槽机制&#xff0c;你可以将按钮的点击事…

性能测试 —— 生成html测试报告、参数化、jvm监控

1.生成HTML的测试报告 1.1配置 (1)找到jmeter 的安装目录&#xff0c;下的bin中的jmeter.properties&#xff08;jmeter配置文件&#xff09; (2) ctrl f &#xff0c;搜索jmeter.save.saveservice.output_format&#xff0c;取消井号 并且 把等号后的xml改为csv&#xff0c;…

基于Intel优化的淡水养殖水质溯源方案

基于AI的淡水养殖水质溯源、优化系统方案 前言一、核心痛点及关键需求1.政策引导及产业升级2.紧跟时事及供给变化3.品牌打造&#xff0c;重拾消费者信赖4.特色生态新模式 二、方案设计1.水质溯源档案2.数字孪生系统3.基于intel AI 水质预测算法 三、实践案例1、方案简述2、数据…

聊聊低代码的全栈开发能力

一、前言 低代码的热度持续提升&#xff0c;最明显的举动就是资本真金白银的投资。 阿里推出“云钉一体”战略&#xff0c;为企业提供全生命周期的IT解决文案&#xff1b;腾讯将各个事业部的低代码平台进行整合&#xff0c;推出了OTeam平台。网易有数帆轻舟低代码平台&#xff…