计算机系统应用教程网站

网站首页 > 技术文章 正文

用OpenCV测量图像中物体的大小 opencv测量图片物体长度

btikc 2024-10-12 10:21:22 技术文章 13 ℃ 0 评论

测量图像中物体的大小类似于计算相机到物体的距离——在这两种情况下,我们都需要定义一个比率来测量每个给定指标的像素数。我将此称为“像素/参照”比率,在下一节中我将更正式地定义它。

“像素/公制”比率

为了确定图像中对象的大小,我们首先需要使用参考对象执行校准(不要与内部/外部校准混淆)。我们的参考对象应该有两个重要的属性:

  1. 我们应该知道这个对象的尺寸(以宽度或高度为单位)在一个可测量的单位内(如毫米、英寸等)。
  2. 我们应该能够轻松地找到这个引用对象在一个图像,要么基于对象的位置(如引用对象总是被放置在一个图像的左上角)或通过表象(像一个独特的颜色或形状,独特和不同图像中所有其他对象)。

在这两种情况下,我们的引用都应该以某种方式惟一地可识别。在本例中,我们将使用一个圆或者一枚硬币作为参考对象,在所有示例中,确保它始终是图像中最左边的对象:

图1:我们将左边的圆作为尺寸的参考对象,并确保它始终作为图像中最左边的对象放置,这样我们就可以根据位置对轮廓进行排序,从而方便地提取它。先用比较简单的图形,轮廓分明的图来测试。

我们可以从左到右对对象轮廓进行排序,抓取圆(它始终是排序列表中的第一个轮廓),并使用它来定义我们的pixels_per_metric,我们将其定义为:

pixels_per_metric = object_width / know_width

假定给定的圆的尺寸是10mm。现在,假设我们的object_width(以像素为度量单位)被计算为150像素宽(基于其关联的边界框)。

因此pixels_per_metric为:

pixels_per_metric = 150px / 10mm = 15px

因此,在我们的图像中,每10mm大约有150个像素。利用这个比值,我们可以计算出图像中物体的大小。

现在我们已经了解了“像素/参照”的比例,我们可以实现用于测量图像中对象大小的Python驱动程序脚本。

打开一个新文件,将其命名为object_size.py,并插入以下代码:

Python

# import the necessary packages
from scipy.spatial import distance as dist
from imutils import perspective
from imutils import contours
import numpy as np
import argparse
import imutils
import cv2
 
def midpoint(ptA, ptB):
	return ((ptA[0] + ptB[0]) * 0.5, (ptA[1] + ptB[1]) * 0.5)
 
# construct the argument parse and parse the arguments
ap = argparse.ArgumentParser()
ap.add_argument("-i", "--image", required=True,
	help="path to the input image")
ap.add_argument("-w", "--width", type=float, required=True,
	help="width of the left-most object in the image (in inches)")
args = vars(ap.parse_args())

第2-8行导入所需的Python包。我们将在这个例子中大量使用imutils包,所以如果你没有安装它,请确保在继续之前安装它:

Shell

$ pip install imutils

否则,如果您安装了imutils,请确保您有最新的版本,即在撰写本文时为0.3.6:

Shell

$ pip install --upgrade imutils

第10行和第11行定义了一个称为中点的辅助方法,顾名思义,中点用于计算两组(x, y)坐标之间的中点。

然后在第14-19行解析命令行参数。我们需要两个参数——image和——width,这两个参数是到输入图像的路径,其中包含我们想要测量的对象,而——width是引用对象的宽度(以mm为单位),假定它是——image中最左边的对象。

我们现在可以加载我们的图像和预处理它:

Python

# load the image, convert it to grayscale, and blur it slightly
image = cv2.imread(args["image"])
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
gray = cv2.GaussianBlur(gray, (7, 7), 0)
 
# perform edge detection, then perform a dilation + erosion to
# close gaps in between object edges
edged = cv2.Canny(gray, 50, 100)
edged = cv2.dilate(edged, None, iterations=1)
edged = cv2.erode(edged, None, iterations=1)
 
# find contours in the edge map
cnts = cv2.findContours(edged.copy(), cv2.RETR_EXTERNAL,
	cv2.CHAIN_APPROX_SIMPLE)
cnts = imutils.grab_contours(cnts)
 
# sort the contours from left-to-right and initialize the
# 'pixels per metric' calibration variable
(cnts, _) = contours.sort_contours(cnts)
pixelsPerMetric = None

第22-24行从磁盘加载图像,将其转换为灰度,然后使用高斯滤波器使其平滑。然后,我们沿着扩张+侵蚀执行边缘检测,以关闭边缘映射中边缘之间的任何间隙(第28-30行)。

第33-35行找到等值线(即,轮廓线),对应于边缘映射中的对象。

然后在第39行从左到右对这些轮廓进行排序(允许我们提取引用对象)。我们还在第40行初始化了pixelsPerMetric值。

下一步是检查每一个轮廓:

Python

# loop over the contours individually
for c in cnts:
	# if the contour is not sufficiently large, ignore it
	if cv2.contourArea(c) < 100:
		continue
 
	# compute the rotated bounding box of the contour
	orig = image.copy()
	box = cv2.minAreaRect(c)
	box = cv2.cv.BoxPoints(box) if imutils.is_cv2() else cv2.boxPoints(box)
	box = np.array(box, dtype="int")
 
	# order the points in the contour such that they appear
	# in top-left, top-right, bottom-right, and bottom-left
	# order, then draw the outline of the rotated bounding
	# box
	box = perspective.order_points(box)
	cv2.drawContours(orig, [box.astype("int")], -1, (0, 255, 0), 2)
 
	# loop over the original points and draw them
	for (x, y) in box:
		cv2.circle(orig, (int(x), int(y)), 5, (0, 0, 255), -1)

在第43行,我们开始循环每个单独的轮廓线。如果轮廓不够大,我们丢弃该区域,假设它是边缘检测过程中留下的噪声(第45和46行)。假设轮廓区域足够大,我们在第50-52行计算图像的旋转边界框,特别注意使用cv2.cv。OpenCV 2.4和cv2的BoxPoints函数。opencv3的boxPoints方法。然后,我们按照左上角、右上角、右下角和左下角的顺序排列旋转的边界框坐标,如上周的博客文章(第58行)所述。最后,第59-63行用绿色绘制对象的轮廓,然后用红色小圆圈绘制边框矩形的顶点。现在我们有了有序的边界框,我们可以计算一系列中点

Python

	# unpack the ordered bounding box, then compute the midpoint
	# between the top-left and top-right coordinates, followed by
	# the midpoint between bottom-left and bottom-right coordinates
	(tl, tr, br, bl) = box
	(tltrX, tltrY) = midpoint(tl, tr)
	(blbrX, blbrY) = midpoint(bl, br)
 
	# compute the midpoint between the top-left and top-right points,
	# followed by the midpoint between the top-righ and bottom-right
	(tlblX, tlblY) = midpoint(tl, bl)
	(trbrX, trbrY) = midpoint(tr, br)
 
	# draw the midpoints on the image
	cv2.circle(orig, (int(tltrX), int(tltrY)), 5, (255, 0, 0), -1)
	cv2.circle(orig, (int(blbrX), int(blbrY)), 5, (255, 0, 0), -1)
	cv2.circle(orig, (int(tlblX), int(tlblY)), 5, (255, 0, 0), -1)
	cv2.circle(orig, (int(trbrX), int(trbrY)), 5, (255, 0, 0), -1)
 
	# draw lines between the midpoints
	cv2.line(orig, (int(tltrX), int(tltrY)), (int(blbrX), int(blbrY)),
		(255, 0, 255), 2)
	cv2.line(orig, (int(tlblX), int(tlblY)), (int(trbrX), int(trbrY)),
		(255, 0, 255), 2)

第68-70行解压缩有序的边界框,然后计算左上角和右上角之间的中点,然后计算右下角之间的中点。我们还将分别计算左上角+左下角和右上角+右下角之间的中点(第74行和第75行)。第78-81行在图像上绘制蓝色中点,然后用紫色线连接中点。接下来,我们需要通过研究引用对象来初始化pixelsPerMetric变量

Python

	# compute the Euclidean distance between the midpoints
	dA = dist.euclidean((tltrX, tltrY), (blbrX, blbrY))
	dB = dist.euclidean((tlblX, tlblY), (trbrX, trbrY))
 
	# if the pixels per metric has not been initialized, then
	# compute it as the ratio of pixels to supplied metric
	# (in this case, inches)
	if pixelsPerMetric is None:
		pixelsPerMetric = dB / args["width"]

首先,我们计算我们的中点集(第90行和第91行)之间的欧氏距离。dA变量将包含高度距离(以像素为单位),而dB将保存宽度距离。

然后在第96行检查pixelsPerMetric变量是否已初始化,如果还没有初始化,则用dB除以提供的宽度,从而得到每mm的(近似)像素。

现在我们已经定义了像素度量变量,我们可以测量图像中对象的大小:

Python

	# compute the size of the object
	dimA = dA / pixelsPerMetric
	dimB = dB / pixelsPerMetric
 
	# draw the object sizes on the image
	cv2.putText(orig, "{:.1f}in".format(dimA),
		(int(tltrX - 15), int(tltrY - 10)), cv2.FONT_HERSHEY_SIMPLEX,
		0.65, (255, 255, 255), 2)
	cv2.putText(orig, "{:.1f}in".format(dimB),
		(int(trbrX + 10), int(trbrY)), cv2.FONT_HERSHEY_SIMPLEX,
		0.65, (255, 255, 255), 2)
 
	# show the output image
	cv2.imshow("Image", orig)
	cv2.waitKey(0)

第100行和第101行通过将各自的欧几里德距离除以像素度量值来计算对象的维数(以毫米/英寸为单位)(请参阅上面的“像素/度量”一节了解这个比例的工作原理)。

第104-109行在图像上绘制对象的尺寸,而第112和113行显示输出结果。

物体尺寸测量结果

要测试我们的object_size.py脚本,只需发出以下命令:

Shell

$ python object_size.py --image images/example_01.png --width 10

您的输出应该如下所示:

图2:使用OpenCV、Python和计算机视觉+图像处理技术测量图像中对象的大小。

正如您所看到的,我们已经成功地计算了图像中每个对象的大小,按ESC逐一查看结果。

然而,并不是所有的结果都是完美的。为什么物体的测量不是100%准确的?

原因有两方面:

  • 首先,用手机拍下了这张照片。从这个角度往下看(就像鸟瞰一样),绝对不是一个完美的90度角。如果没有一个完美的90度视角(或尽可能接近),物体的尺寸可能会出现扭曲。
  • 其次,我没有使用相机的内外参数来校准。如果不确定这些参数,照片很容易出现径向和切向透镜畸变。

执行额外的校准步骤来找到这些参数可以使我们的图像不失真,从而获得更好的对象大小近似值(但是我将把畸变校正的讨论留到以后的博客文章中讨论)。与此同时,在拍摄物体时,尽量获得接近90度的视角,这将有助于提高物体尺寸估计的准确性。也就是说,让我们来看第二个测量物体大小的例子,这次是测量药片的尺寸

Shell

$ python object_size.py --image images/example_02.png --width 0.955

处方药中,近50%是圆形和/或白色的,因此,如果我们能根据药片的尺寸对其进行过滤,我们就有更好的机会准确识别药物。最后,我们有一个最后的例子,这次使用不同的物件,精确度受轮廓检测的影响:

Shell

$ python object_size.py --image images/example_03.png --width 10

同样,结果不是很完美,但这是由于视角和镜头失真,在工业自动化测试上,这项技术被广泛应用。可以通过拍摄环境优化,固定视角等措施来优化。

汇总

在这篇博客文章中,我们学习了如何使用Python和OpenCV测量图像中对象的大小。就像在我们的教程中测量从相机到物体的距离一样,我们需要确定我们的像素每公制比,它描述了能够适应给定的英寸、毫米、米等数的像素的数量。要计算这个比例,我们需要一个具有两个重要属性的引用对象:

  • 引用对象应该具有可测量单位(英寸、毫米等)的已知尺寸(如宽度或高度)。
  • 引用对象应该很容易找到,无论是在对象的位置上还是在其外观上。

如果这两个属性都能满足,就可以使用引用对象校准pixels_per_metric变量,然后从这里计算图像中其他对象的大小。

原文地址参考:https://www.pyimagesearch.com/2016/03/28/measuring-size-of-objects-in-an-image-with-opencv/

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表