COCO-Pose 数据集是一个专为姿态估计任务设计的集合,它利用了 COCO Keypoints 2017 的图像和标签,使得像 YOLO 这样的模型能够进行姿态估计训练。该数据集包含了 200,000 张带有关键点标注的图像,用于姿态估计任务。它支持 17 个关键点的人体姿态估计,提供了标准化的评估指标,如姿态估计任务的物体关键点相似度(OKS),非常适合比较模型性能。
COCO-Pose 数据集分为三个子集:Train2017、Val2017 和 Test2017。Train2017 子集包含了来自 COCO 数据集的 118K 张图像的一部分,这些图像被标注用于训练姿态估计模型。Val2017 子集包含了用于模型训练过程中验证目的的选定图像。Test2017 子集由用于测试和基准测试训练模型的图像组成。这个子集的真实标注并不公开,结果需要提交到 COCO 评估服务器进行性能评估。
COCO-Pose 数据集特别用于训练和评估深度学习模型在关键点检测和姿态估计任务中的应用,例如 OpenPose。数据集的大量标注图像和标准化评估指标使其成为计算机视觉研究人员和专注于姿态估计的实践者的重要资源。
为了在 COCO-Pose数据集上训练 YOLO11n-pose 模型 100 个周期,可以使用以下代码片段。对于可用参数的完整列表,请参考模型训练页面。
from ultralytics import YOLO
# 加载模型
model = YOLO(
"yolo11n-pose.pt"
)
# 加载预训练模型(推荐用于训练)
# 训练模型
results = model.train(
data="coco-pose.yaml",
epochs=100,
imgsz=640
)
COCO-Pose 数据集包含了多样化的图像,这些图像中的人体被标注了关键点。以下是数据集中的一些图像示例,以及它们对应的标注。
拼贴图像:这张图像展示了由数据集图像组成的训练批次。拼贴是一种在训练过程中使用的技术,它将多个图像组合成单个图像,以增加每个训练批次中的对象和场景的多样性。这有助于提高模型对不同对象大小、长宽比和上下文的泛化能力。
如果在研究或开发工作中使用了 COCO-Pose数据集,请引用以下论文:
@misc{lin2015microsoft,
title={Microsoft COCO: Common Objects in Context},
author={Tsung-Yi Lin and Michael Maire and Serge Belongie and Lubomir Bourdev and Ross Girshick and James Hays and Pietro Perona and Deva Ramanan and C. Lawrence Zitnick and Piotr Dollár},
year={2015},
eprint={1405.0312},
archivePrefix={arXiv},
primaryClass={cs.CV}
}