在本文中,将探讨使用OpenCV实现的图像特征检测、描述和匹配的不同算法。首先,让了解计算机视觉的基本概念,因为OpenCV是一个开源的计算机视觉库。当人类看到一张图片时,能够识别出图片中的人脸。简而言之,计算机视觉就是让计算机像人类一样看到和处理视觉数据,它涉及分析图像以产生有用的信息。
什么是特征?当看到一张芒果的图片时,是如何识别出它是芒果的?通过分析颜色、形状和纹理,可以确定它是芒果。用于识别或识别图像的线索被称为图像的特征。同样,计算机功能也能检测图像中的各种特征。
将讨论OpenCV库中用于检测特征的一些算法。
Harris角点检测算法用于检测输入图像中的角点。这个算法有三个主要步骤:确定图像中哪些部分的强度变化大,因为角点的强度变化大;为每个识别的窗口计算一个得分值R;应用阈值到得分并标记角点。以下是这个算法的Python实现:
import cv2
import numpy as np
input_img = 'det_1.jpg'
ori = cv2.imread(input_img)
image = cv2.imread(input_img)
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
gray = np.float32(gray)
dst = cv2.cornerHarris(gray, 2, 3, 0.04)
dst = cv2.dilate(dst, None)
image[dst > 0.01 * dst.max()] = [0, 0, 255]
cv2.imshow('Original', ori)
cv2.imshow('Harris', image)
if cv2.waitKey(0) & 0xff == 27:
cv2.destroyAllWindows()
这是Harris角点检测算法的输出结果。
这是另一种角点检测算法。它的工作原理与Harris角点检测相似,唯一的区别在于计算R值。这个算法还允许在图像中找到最佳的n个角点。让看看Python实现:
import numpy as np
import cv2
from matplotlib import pyplot as plt
img = cv2.imread('det_1.jpg')
ori = cv2.imread('det_1.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
corners = cv2.goodFeaturesToTrack(gray, 20, 0.01, 10)
corners = np.int0(corners)
for i in corners:
x, y = i.ravel()
cv2.circle(img, (x, y), 3, 255, -1)
cv2.imshow('Original', ori)
cv2.imshow('Shi-Tomasi', img)
cv2.waitKey(0)
cv2.destroyAllWindows()
这是Shi-Tomasi算法的输出结果。在这里,检测到了前20个角点。
SIFT用于检测角点、斑点、圆形等。它还用于图像的缩放。考虑这三张图片。尽管它们在颜色、旋转和角度上有所不同,但知道这些是三张不同的芒果图片。计算机如何能够识别这一点呢?Harris角点检测和Shi-Tomasi角点检测算法在这种情况下失败了。但SIFT算法在这里扮演了重要角色。它可以检测图像中的特征,无论其大小和方向如何。让实现这个算法。
import numpy as np
import cv2 as cv
ori = cv.imread('det_1.jpg')
img = cv.imread('det_1.jpg')
gray = cv.cvtColor(img, cv.COLOR_BGR2GRAY)
sift = cv.SIFT_create()
kp, des = sift.detectAndCompute(gray, None)
img = cv.drawKeypoints(gray, kp, img, flags=cv.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
cv.imshow('Original', ori)
cv.imshow('SIFT', image)
if cv.waitKey(0) & 0xff == 27:
cv.destroyAllWindows()
输出结果如下。可以看到图像中有一些线条和圆形。特征的大小和方向分别由圆圈和圆圈内的线条表示。
SURF算法是SIFT的升级版本。让实现这个算法。
import numpy as np
import cv2 as cv
ori = cv.imread('/content/det1.jpg')
img = cv.imread('/content/det1.jpg')
surf = cv.xfeatures2d.SURF_create(400)
kp, des = surf.detectAndCompute(img, None)
img2 = cv.drawKeypoints(img, kp, None, (255, 0, 0), 4)
cv.imshow('Original', ori)
cv.imshow('SURF', img2)
BLOB代表二进制大对象。它指的是在特定二进制图像中具有共同属性的一组连接像素或区域。这些区域在OpenCV中是具有一些额外特征的轮廓,如质心、颜色、面积、均值和覆盖区域像素值的标准差。让实现这个算法。
import cv2
import numpy as np;
ori = cv2.imread('det_1.jpg')
im = cv2.imread("det_1.jpg", cv2.IMREAD_GRAYSCALE)
detector = cv2.SimpleBlobDetector_create()
keypoints = detector.detect(im)
im_with_keypoints = cv2.drawKeypoints(im, keypoints, np.array([]), (0, 0, 255), cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
cv2.imshow('Original', ori)
cv2.imshow('BLOB', im_with_keypoints)
if cv2.waitKey(0) & 0xff == 27:
cv2.destroyAllWindows()
这是BLOB检测的输出结果。在这里,BLOB检测得非常好。
特征通常是图像中的不同点,描述符给出一个签名,因此它描述了被认为是关键点的点。它提取该点周围的局部邻域,因此创建了一个局部图像补丁,并计算了这个局部补丁的签名。
在深度学习出现之前,HoG是用于目标检测应用的最突出的特征描述符之一。HoG是一种技术,用于计算图像局部部分梯度方向的出现次数。让实现这个算法。
from skimage.feature import hog
import cv2
ori = cv2.imread('/content/det1.jpg')
img = cv2.imread("/content/det1.jpg")
_, hog_image = hog(img, orientations=8, pixels_per_cell=(16, 16),
cells_per_block=(1, 1), visualize=True, multichannel=True)
cv2.imshow('Original', ori)
cv2.imshow('HoG', hog_image)
BRIEF是流行的SIFT描述符的替代品,它们的计算速度更快,更紧凑。让看看它的实现。
import numpy as np
import cv2 as cv
ori = cv.imread('/content/det1.jpg')
img = cv.imread('/content/det1.jpg', 0)
star = cv.xfeatures2d.StarDetector_create()
brief = cv.xfeatures2d.BriefDescriptorExtractor_create()
kp = star.detect(img, None)
kp, des = brief.compute(img, kp)
print(brief.descriptorSize())
print(des.shape)
img2 = cv.drawKeypoints(img, kp, None, color=(0, 255, 0), flags=0)
cv.imshow('Original', ori)
cv.imshow('BRIEF', img2)
import numpy as np
import cv2
ori = cv2.imread('/content/det1.jpg')
img = cv2.imread('/content/det1.jpg', 0)
orb = cv2.ORB_create(nfeatures=200)
kp = orb.detect(img, None)
kp, des = orb.compute(img, kp)
img2 = cv2.drawKeypoints(img, kp, None, color=(0, 255, 0), flags=0)
cv2.imshow('Original', ori)
cv2.imshow('ORB', img2)
import cv2
img1 = cv2.imread('/content/det1.jpg', 0)
img2 = cv2.imread('/content/88.jpg', 0)
orb = cv2.ORB_create(nfeatures=500)
kp1, des1 = orb.detectAndCompute(img1, None)
kp2, des2 = orb.detectAndCompute(img2, None)
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
matches = bf.match(des1, des2)
matches = sorted(matches, key=lambda x: x.distance)
match_img = cv2.drawMatches(img1, kp1, img2, kp2, matches[:50], None)
cv2.imshow('original image', img1)
cv2.imshow('test image', img2)
cv2.imshow('Matches', match_img)
cv2.waitKey()