YOLOv7相同体量下比YOLOv5精度更高,速度快120%(FPS),比 YOLOX 快180%(FPS),比 Dual-Swin-T 快1200%(FPS),比 ConvNext 快550%(FPS),比 SWIN-L快500%(FPS)。
YOLOv7相同体量下比YOLOv5精度更高,速度快120%(FPS),比 YOLOX 快180%(FPS),比 Dual-Swin-T 快1200%(FPS),比 ConvNext 快550%(FPS),比 SWIN-L快500%(FPS)。在5FPS到160FPS的范围内,无论是速度或是精度,YOLOv7都超过了目前已知的检测器,并且在GPU V100上进行测试, 精度为56.8% AP的模型可达到30 FPS(batch=1)以上的检测速率,这是目前唯一一款在如此高精度下仍能超过30FPS的检测器。论文中( 论文下载)各个模型的性能对比如下图所示:
1. 依赖类库
matplotlib>=3.2.2 numpy>=1.18.5 opencv-python>=4.1.1 Pillow>=7.1.2 PyYAML>=5.3.1 requests>=2.23.0 scipy>=1.4.1 torch>=1.7.0,!=1.12.0 torchvision>=0.8.1,!=0.13.0 tqdm>=4.41.0 protobuf<4.21.3
2. 相关下载(可跳过本步,依据后面步骤按需下载)
论文下载:YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object
detectors
源码地址:https://github.com/WongKinYiu/yolov7
基准数据集:https://cocodataset.org/
train2017 train2017:http://images.cocodataset.org/zips/train2017.zip train2017 annotations:http://images.cocodataset.org/annotations/annotations_trainval2017.zip
val2017 val2017:http://images.cocodataset.org/zips/val2017.zip val2017 annotations:http://images.cocodataset.org/annotations/stuff_annotations_trainval2017.zip
test2017 test2017:http://images.cocodataset.org/zips/test2017.zip test2017 info:http://images.cocodataset.org/annotations/image_info_test2017.zip
3. 源码调试
3.1 下载源码
下载YOLO7源码(点击下载),并进行解压。
3.2 下载预训练模型
3.1 下载YOLO7预训练模型(点击下载),并放置在项目的根目录下。
3.3 下载数据集
下载COCO数据集标签数据数据(点击下载),并加压到项目跟目录下。
下载COCO验证数据集(点击下载)并加压到coco/images/val2017目录下,
4. 运行代码
4.1 用VSCode打卡项目文件夹
4.2 运行测试代码
打开测试代码 test.py,并按F5运行代码(请确保Python中已经安装第一节要求的类库)
运行结果如下,测试结果会保存到runs\test\exp目录下
5. 问题
5.1 若提示页面文件太小,无法完成操作,则需要调高虚拟内存大小。
打开系统高级设置
选择高级选项卡,点击性能框中的设置按钮
在打开的选项卡中,选择高级选项卡,然后点击虚拟内存框中的更改按钮
设置虚拟内存大小(如果C盘剩余空间较少,建议虚拟内存设置到其他盘)
设置完成后,点击设置按钮,并重启计算机,完成虚拟内存设置。
5.2 若提示错误:BrokenPipeError,将utils/datasets.py的87行的num_workers设置为0即可
dataloader = loader(dataset, batch_size=batch_size, num_workers=0, sampler=sampler, pin_memory=True, collate_fn=LoadImagesAndLabels.collate_fn4 if quad else LoadImagesAndLabels.collate_fn)
————————————————
版权声明:本文为CSDN博主「maerdym」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/maerdym/article/details/125841657
文章末尾固定信息

评论