在本文中,将探讨如何使用YOLO(You Only Look Once)模型在视频序列中检测和计数人物。YOLO是一种流行的实时对象检测系统,它能够快速准确地识别图像或视频中的对象。将从导入必要的库开始,然后加载YOLO模型,接着处理视频帧,最后绘制边界框并计数检测到的人物。
import cv2
import numpy as np
import time
以上代码导入了OpenCV库,NumPy库和time库,这些库将用于处理视频和执行时间测量。
net = cv2.dnn.readNet("./yolov3.weights", "./yolov3.cfg")
classes = []
with open("coco.names", "r") as f:
classes = [line.strip() for line in f.readlines()]
layer_names = net.getLayerNames()
output_layers = [layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()]
这段代码加载了YOLO模型,并定义了输出层。首先读取了权重文件和配置文件,然后读取了类别名称,并确定了网络中输出层的名称。
cap = cv2.VideoCapture('./video.mp4')
out_video = cv2.VideoWriter('human.avi', cv2.VideoWriter_fourcc(*'MJPG'), 15.0, (640, 480))
使用OpenCV的VideoCapture类来读取视频文件,并创建了一个VideoWriter对象来保存处理后的视频。
frame = cv2.resize(frame, (640, 480))
height, width, channel = frame.shape
blob = cv2.dnn.blobFromImage(frame, 1/255, (320, 320), (0, 0, 0), True, crop=False)
net.setInput(blob)
outs = net.forward(output_layers)
首先调整了视频帧的大小,然后创建了一个blob,它是输入到网络中的数据。接着,通过网络前向传播来检测帧中的对象。
class_ids = []
confidences = []
boxes = []
for out in outs:
for detection in out:
scores = detection[5:]
class_id = np.argmax(scores)
confidence = scores[class_id]
if confidence > 0.5:
center_x = int(detection[0] * width)
center_y = int(detection[1] * height)
w = int(detection[2] * width)
h = int(detection[3] * height)
x = int(center_x - w / 2)
y = int(center_y - h / 2)
boxes.append([x, y, w, h])
confidences.append(float(confidence))
class_ids.append(class_id)
indexes = cv2.dnn.NMSBoxes(boxes, confidences, 0.4, 0.6)
count = 0
for i in range(len(boxes)):
if i in indexes:
x, y, w, h = boxes[i]
label = str(classes[class_ids[i]])
color = COLORS[i]
if int(class_ids[i]) == 0:
count += 1
cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2)
cv2.putText(frame, label + " " + str(round(confidences[i], 3)), (x, y - 5), font, 1, color, 1)
这段代码计算了每个检测到的对象的边界框,并应用了非极大值抑制来消除弱检测。然后,在检测到的对象上绘制边界框,并为每个检测到的人物增加计数。
cv2.putText(frame, str(count), (100, 200), cv2.FONT_HERSHEY_DUPLEX, 2, (0, 255, 255), 10)
cv2.imshow("Detected_Images", frame)
在视频帧上绘制了计数器,以显示每帧中检测到的人物数量。
ROI = [(100, 100), (1880, 100), (100, 980), (1880, 980)]
cv2.rectangle(frame, ROI[0], ROI[3], (255, 255, 0), 2)
定义了一个感兴趣区域(ROI),并只关注该区域内的帧。这有助于更准确地估计队列中的人物数量。