github下载代码:https://github.com/AILab-CVC/YOLO-World
配置环境:
官方的方式
当然也可以按照官方给的配置方式去安装库,我也试了,出现小问题了。
我这边是从我本身的yolov8的环境克隆过来的,然后安装我环境里没有的库。
"mmdet==3.0.0",
"mmengine>=0.7.1",
"openmim",
"mmcv",
mmcv安装总是出问题,建议先查询torch和cuda版本,然后用下面命令安装,记得更改http里的版本号,和查询的一致
pip install mmcv==2.0.0rc4 -f https://download.openmmlab.com/mmcv/dist/cu117/torch1.13/index.html
没有mmyolo:
pyproject.toml文件给的mmyolo地址,去下载
之后将文件解压,并将其中的mmyolo复制出来,放到yolo-word的根目录下,
之后我们运行tools/test.py文件,发现会报如下的错误,是包的路径导入不对,
如from backbones import *
改为from mmyolo.models.backbones import * # noqa: F401,F403即可,
具体原因我也不知道为啥,他也是相对路径啊,于是只能改成从根目录下过来的路径。
会要改很多。慢慢改
报错如下:
OSError: Incorrect path_or_model_id: '../pretrained_models/clip-vit-base-patch32-projection'. Please provide either the path to a local folder or the repo_id of a model on the Hub.
对应配置文件中将18行注释,19行不注释,下图是操作之后的结果
下载权重文件:
https://huggingface.co/wondervictor/YOLO-World/tree/main
在这里插入代码片
下载配置文件:配置文件
https://huggingface.co/openai/clip-vit-base-patch32/tree/main
下载文件如下,放在demo/openai/clip-vit-base-patch32下,
下载lvis_v1_minival_inserted_image_name.json
网址:https://huggingface.co/GLIPModel/GLIP/blob/main/lvis_v1_minival_inserted_image_name.json
然后构建如下路径,
之后运行simple_demo.py
搞定!!!