在计算机视觉领域,Ultralytics 提供了一系列优化的 YOLO(You Only Look Once)模型,这些模型专为对象检测、实例分割、图像分类、姿态估计和多对象跟踪等特定任务量身定制。支持从 YOLOv3 到 YOLOv11 等多个版本的模型,以及 SAM、RT-DETR 等其他先进的模型。如果有兴趣为模型架构贡献自己的力量,可以查看。
以下是支持的一些基础模型:
YOLOv3
:由 Joseph Redmon 开发的 YOLO 模型系列的第三次迭代,以其高效的实时对象检测能力而闻名。YOLOv4
:由 Alexey Bochkovskiy 在 2020 年发布的 YOLOv3 的 darknet 本地更新版本。YOLOv5
:由 Ultralytics 开发的 YOLO 架构的改进版本,与之前的版本相比,提供了更好的性能和速度平衡。YOLOv6
:由美团在 2022 年推出,广泛用于公司的自动配送机器人中。YOLOv7
:由 YOLOv4 的在 2022 年发布的更新版 YOLO 模型。YOLOv8
:YOLO 家族的最新版本,增强了实例分割、姿态/关键点估计和分类等功能。YOLOv9
:一个在 Ultralytics 上训练的实验性模型,采用了可编程梯度信息(PGI)。YOLOv10
:由清华大学开发,不包含 NMS,专注于训练和效率-准确性的架构,提供了最新的性能和延迟。YOLOv11
:Ultralytics 最新的 YOLO 模型,提供了多个任务的最新性能(SOTA)。Segment Anything Model (SAM)
:Meta 的原始 Segment Anything Model。Segment Everything Model 2 (SAM2)
:适用于视频和图像的 Meta 的 Segment Anything Model 的新一代。Mobile Segment Everything Model (MobileSAM)
:由 Kyung Hee University 开发,适用于移动应用的 MobileSAM。Fast Segment Everything Model (FastSAM)
:由中国科学自动化研究所图像和视频分析组开发的 FastSAM。YOLO-NAS
:YOLO 神经架构搜索(NAS)模型。Realtime Detection Transformers (RT-DETR)
:百度的 PaddlePaddle Realtime Detection Transformer 模型。YOLO-World
:由腾讯 AI Lab 提供的实时开放词汇对象检测模型。