YOLO(You Only Look Once)模型系列是一系列用于计算机视觉任务的深度学习模型,它们在目标检测、实例分割、姿态估计和图像分类等领域表现出色。这些模型以其高效的性能和实时的处理能力而闻名,适用于各种不同的应用场景。
Ultralytics提供了广泛的YOLO模型支持,包括但不限于YOLOv3、YOLOv4、YOLOv5、YOLOv6、YOLOv7、YOLOv8、YOLOv9、YOLOv10和YOLO11。这些模型不断更新,以提供更好的性能和更快的处理速度。例如,YOLOv8是YOLO家族的最新版本,它不仅增强了目标检测能力,还引入了实例分割、姿态估计和分类等新功能。
除了YOLO模型,Ultralytics还支持其他类型的模型,如Segment Anything Model (SAM)、Mobile Segment Anything Model (MobileSAM)和FastSAM等,这些模型专为视频和图像的分割任务设计。此外,还有YOLO-NAS和Realtime Detection Transformers (RT-DETR)模型,它们分别用于神经架构搜索和实时目标检测。
如果希望为Ultralytics贡献新的YOLO模型,可以遵循以下步骤:
- 创建一个GitHub仓库的分支(fork)。
- 克隆分支到本地机器,并创建一个新的分支进行开发。
- 根据Ultralytics提供的编码标准和贡献指南实现模型。
- 严格测试模型,确保它在隔离和整体流程中都能正常工作。
- 创建一个拉取请求(pull request)到主仓库,以便进行审查。
- 代码审查和合并:经过审查,如果模型符合标准,它将被合并到主仓库中。
详细的步骤和指南可以在Ultralytics的贡献指南中找到。
from ultralytics import YOLO
# 加载一个预训练的YOLOv8n模型
model = YOLO("yolov8n.pt")
# 显示模型信息(可选)
model.info()
# 在COCO8示例数据集上训练模型100个周期
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
# 使用YOLOv8n模型在'bus.jpg'图像上运行推理
results = model("path/to/bus.jpg")