计算机系统应用教程网站

网站首页 > 技术文章 正文

利用Python和OpenCV进行作物行检测

btikc 2024-09-08 12:09:06 技术文章 19 ℃ 0 评论

农业的完全自动化是不可避免的。自从发明了轮子,农民们就开始采用每一种新技术。在本系列中,我们将学习如何利用这一点,利用计算机视觉和机器学习的进步为农民提供新的精确农业工具。

今天,我们将关注一个新的用例:自主农业车辆(AAV)。

AAV的有趣之处在于现有的Ag。车辆可以配备传感器,执行器,和R/C控制成为完全自治!但是,是什么让这些高科技的拖拉机运转起来呢?我们如何确保AAV的安全性、可靠性和可用性?

检测作物的成排对车辆在完成其任务的道路、速度和有效性方面作出决定是很重要的。为了实现这个目标,我们将使用Python和OpenCV。我们今天要探讨的算法包括:

  • 颜色转换

  • Canny边缘检测

  • 骨架化

  • Hough线变换

Aerial image of coffee rows

#import dependencies

import cv2

import numpy as np

import matplotlib.pyplot as plt

#load image using cv's imread(nameoffile)

img = cv2.imread(trees1.png)

我们所做的只是导入依赖关系并将我们的图像加载为一个numpy数组,我们将其分配给一个变量'img'。

接下来,我们将开始预处理阶段,从图片中提取我们想要的信息。典型的预处理工作流程取决于您开始的工作。对于我们的用例,我们希望确保计算机专注于此信息:

  • 绿色(大多数植物是绿色的)。

  • 绿色物体的边缘(植物行)。

#split the image into blue, green, and red channels

b,g,r = cv2.split(img)

#here we 'amplify' the color green to stand out, without red/blue

gscale = 2*g-r-b #we are going to refer to this as our grayscale img

#Canny edge detection

gscale = cv2.Canny(gscale,280,290,apertureSize = 3)

#checking the results (good practice)

plt.figure()

plt.plot(), plt.imshow(gscale)

plt.title('Canny Edge-Detection Results')

plt.xticks([]), plt.yticks([])

plt.show()

边缘检测绿色区域的结果

我发现的难点是在cv2.Canny()函数中调整min和max参数。再做一个预处理步骤,我们就能找到每行"咖啡"。

骨架化是将我们的兴趣区域细化到它们的二元组成部分的过程。这使得我们更容易执行模式识别。之前的步骤是必须的:

size = np.size(gscale) #returns the product of the array dimensions

skel = np.zeros(gscale.shape,np.uint8) #array of zeros

ret,gscale = cv2.threshold(gscale,128,255,0) #thresholding the image

element = cv2.getStructuringElement(cv2.MORPH_CROSS,(3,3))

done = False

while( not done):

eroded = cv2.erode(gscale,element)

temp = cv2.dilate(eroded,element)

temp = cv2.subtract(gscale,temp)

skel = cv2.bitwise_or(skel,temp)

gscale = eroded.copy()

zeros = size - cv2.countNonZero(gscale)

if zeros==size:

done = True

现在,我们已经精简了我们以前处理过的灰度图像。这意味着计算机应该有一个更容易的时间执行Hough线算法,它给了我们每个咖啡行的边界

lines = cv2.HoughLines(skel,1,np.pi/180,130)

a,b,c = lines.shape

for i in range(a):

rho = lines[i][0][0]

theta = lines[i][0][1]

a = np.cos(theta)

b = np.sin(theta)

x0 = a*rho

y0 = b*rho

x1 = int(x0 + 1000*(-b))

y1 = int(y0 + 1000*(a))

x2 = int(x0 - 1000*(-b))

y2 = int(y0 - 1000*(a))

cv2.line(img,(x1,y1),(x2,y2),(0,0,255),2, cv2.LINE_AA)

#showing the results:

plt.subplot(121)

#OpenCV reads images as BGR, this corrects so it is displayed as RGB

plt.plot(),plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))

plt.title('Row Detection'), plt.xticks([]), plt.yticks([])

plt.subplot(122)

plt.plot(),plt.imshow(skel,cmap='gray')

plt.title('Skeletal Image'), plt.xticks([]), plt.yticks([])

plt.show()

行检测结果

行检测结

正如你所看到的,我们制作的Python程序本身做得很好,不需要ML分类器模型或其他预先训练的数据。当然,我们只能检测到现场的大部分行。为什么是这样?

需要改进的地方可能包括颜色转换和镂空的迭代。这可以减少误报,并且可以提高程序检测的准确性。

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表