环境搭建
gpu按自己情况安装
nvidia-smi 查看自己的版本
CUDA和cudnn 按自己的安装,我的驱动551.76,注意不要用最新的,官网只要求驱动是大于等于,可以用低版本的cuda,我安装的是CUDA 11.1
cuda下载后,下载cudnn将解压的cuDNN压缩包内的三个文件夹复制到CUDA安装目录下:
bin lib include
执行nvcc -V验证
C:\Users\Administrator>nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2020 NVIDIA Corporation
Built on Tue_Sep_15_19:12:04_Pacific_Daylight_Time_2020
Cuda compilation tools, release 11.1, V11.1.74
Build cuda_11.1.relgpu_drvr455TC455_06.29069683_0
安装torch
conda install pytorch torchvision torchaudio cudatoolkit=11.1 -c pytorch-lts -c conda-forge
cd到代码目录下,E:\code\YOLOX-0.3.0
执行 pip3 install -v -e . 安装
最后pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
如果有版本问题,卸载重新调整
比如重新安装
pip install protobuf3.20.1
pip install numpy1.19.5
pip install matplotlib3.3.4 scikit-image0.18.3 等
通过Labelimg标注数据
执行voc2txt.py 转换标注的数据为coco
if __name__ == "__main__":
# 定义类别,要与yolox/data/datasets/coco_classes.py一致
COCO_CLASSES = (
"person"
)
new_labeled_img_dir = "E:/data/1/table" # 新标注的文件
train_dir = "E:/code/YOLOX-0.3.0/datasets/coco/train2017" # 目标文件夹train
val_dir = "E:/code/YOLOX-0.3.0/datasets/coco/val2017" # 目标文件夹val
val_percent = 0.1 # train val 比例
cache_dir = 'E:/data/yolox/cache' # 缓存图片的文件路径!!!!!一定要删除,被坑一个星期!!!!!!!!
# 按比例随机拆分到到目标目录,会同时移动.jpg和.xml文件
splitLabeled(val_percent, new_labeled_img_dir, train_dir, val_dir)
#回收旧数据,提高新数据占比,最新100个数据不参与回收
reduceData(train_dir,val_dir,max_data=500000,val_percent=val_percent,recycle_dir='E:/data/yolox/recycle')
# 生成json
# train
json_file = "E:/code/YOLOX-0.3.0/datasets/coco/annotations/instances_train2017.json"
image_id = 202200000
parseXmlFiles(train_dir, json_file, image_id, COCO_CLASSES)
# eval
json_file = "E:/code/YOLOX-0.3.0/datasets/coco/annotations/instances_val2017.json"
image_id = 0
parseXmlFiles(val_dir, json_file, image_id, COCO_CLASSES)
# 删除 cache 文件
delImgCache(cache_dir)
训练
修改train.py ckpt、batchsize
修改YOLOX-0.3.0\exps\example\custom\yolox_s.py的路径和num_classes
修改YOLOX-0.3.0\yolox\data\datasets\coco_classes.py
E:\code\YOLOX-0.3.0\下执行train.py
测试模型
YOLOX-0.3.0\tools\demo.py 用demo.py 测试图片,assets/an.png为测试的图片,last_epoch_ckpt.pth为自己训练的模型
参数
image -f E:/code/YOLOX-0.3.0/exps/example/custom/yolox_s.py -c E:\code\YOLOX-0.3.0\YOLOX_outputs\yolox_s\last_epoch_ckpt.pth --path assets/an.png --conf 0.25 --nms 0.45 --tsize 640 --save_result --device gpu
测试自己训练的模型
将自己训练的模型导出onnx
参数–output-name yolox_s.onnx -f E:/code/YOLOX-0.3.0/exps/example/custom/yolox_s.py -c E:\code\YOLOX-0.3.0\YOLOX_outputs\yolox_s\last_epoch_ckpt.pth
在YOLOX-0.3.0目录下执行
YOLOX-0.3.0\tools\export_onnx.py
生成yolox_s.onnx