前言
我的环境是
CUDA11.6
cudnn8.4
python3.8
vs2022
tensorRT8.4.2.4
实现
参考了下面这个视频和文章(跟着视频做为主,文章为辅)一遍成功,因为这个博主写的很详细,很赞,我就不再重复去写了。
视频:【实战】win10下yolov8 tensorrt 部署
文章:win10下 yolov8 tensorrt模型部署
效果:
遇到的问题:
1.VC编译libtorch提示无法打开输入文件cudnn.lib
2.把onnx模型转TensorRT模型的trt模型报错:Your ONNX model has been generated with INT64 weights. while TensorRT
解决:严格按照博主文章中的这行命令来:
yolo mode=export model=yolov8n.pt format=onnx dynamic=True opset=12 #simplify=True