在YOLOv4发布后不到50天,YOLOv5就改进了实时对象检测的技术水平。
实时目标检测技术快速发展,其改进的速度令人震惊。
3月18日,Google开源了EfficientDet的实现源代码,EfficientDet可对不同大小的模型进行快速训练,其中之一提供实时输出。4月23日,Alexey Bochoviskiy等人开源了YOLOv4。6月9日,Glenn Jocher开源了 YOLOv5。
YOLO模型的演变
YOLO(You Only Look Once)是PJ·雷迪(PJ Reddie)最初在2016年出版的一本书中创建的一系列模型。YOLO模型非常小,以高性能著称,这使它们成为实时条件和设备上部署环境的理想候选者。
PJ Reddie的研究团队随后开源了YOLOv2和YOLOv3,这两个产品在模型性能和模型速度上都有了持续的提升。2020年2月,PJ Reddie表示他将停止计算机视觉的研究。
2020年4月,Alexey Bochkovskiy, Chien-Yao Wang和hongyuan Mark Liao推出了YOLOv4,取得了令人瞩目的成绩。
值得注意的是,YOLOv4的许多改进来自于改进的数据增强和模型架构。
YOLOv5:实时目标检测的领导者
Glenn Jocher发布的YOLOv5与此前的YOLO模型相比存在很多差异和改进。
值得注意的是,Glenn是mosaic 数据增强方法的创建者,该方法是改进后的YOLOv4中包含的一种技术。YOLOv5的发布包括五个不同的型号:YOLOv5s(最小)、YOLOv5m、YOLOv5l、YOLOv5x(最大)。
首先,这是YOLO系列中第一个使用PyTorch而不是PJ Reddie的Darknet编写的native版本。
Darknet是一个非常灵活的研究框架,但它并不是在考虑生产环境的情况下构建的,它的用户群体也比较小。因此Darknet在配置上更具有挑战性,且不适合生产。
因为YOLOv5是在PyTorch中实现的,所以它受益于已建立的PyTorch生态系统;支持更简单,部署更容易。
此外,作为一个更广为人知的研究框架,在YOLOv5上进行迭代可能更容易。
由于该模型可以轻松地编译为ONNX和CoreML,因此这也使得部署到移动设备的过程更加简单。
其次,YOLOv5极快。在运行Tesla P100的YOLOv5 Colab笔记本中,每个图像的推理时间快至0.007秒,意味着每秒140帧(FPS)!相比之下,YOLOv4在转换为相同的Ultralytics PyTorch后达到了50帧 。
第三,YOLOv5是准确的。在研究者对血细胞计数和检测(BCCD)数据集的测试中,经过100个epoch的训练,他们获得了大约0.895的平均精度(mAP)。研究者也在EfficientDet和YOLOv4上也看到了相当的性能,但是很少看到YOLOv5这种全面的性能改进而又不损失准确性。
第四,YOLOv5很小。具体而言,YOLOv5的权重文件为27兆字节。YOLOv4(具有Darknet架构)的权重文件为244 MB。YOLOv5比YOLOv4小近90%。这意味着YOLOv5可以更轻松地部署到嵌入式设备。
YOLOv5的图形测量性能很好地总结了这些变化。
参考链接:
https://blog.roboflow.ai/yolov5-is-here/
github:
https://github.com/ultralytics/yolov5
本文暂时没有评论,来添加一个吧(●'◡'●)