农业的完全自动化是不可避免的。自从发明了轮子,农民们就开始采用每一种新技术。在本系列中,我们将学习如何利用这一点,利用计算机视觉和机器学习的进步为农民提供新的精确农业工具。
今天,我们将关注一个新的用例:自主农业车辆(AAV)。
AAV的有趣之处在于现有的Ag。车辆可以配备传感器,执行器,和R/C控制成为完全自治!但是,是什么让这些高科技的拖拉机运转起来呢?我们如何确保AAV的安全性、可靠性和可用性?
检测作物的成排对车辆在完成其任务的道路、速度和有效性方面作出决定是很重要的。为了实现这个目标,我们将使用Python和OpenCV。我们今天要探讨的算法包括:
颜色转换
Canny边缘检测
骨架化
Hough线变换
#import dependencies
import cv2
import numpy as np
import matplotlib.pyplot as plt
#load image using cv's imread(nameoffile)
img = cv2.imread(trees1.png)
我们所做的只是导入依赖关系并将我们的图像加载为一个numpy数组,我们将其分配给一个变量'img'。
接下来,我们将开始预处理阶段,从图片中提取我们想要的信息。典型的预处理工作流程取决于您开始的工作。对于我们的用例,我们希望确保计算机专注于此信息:
绿色(大多数植物是绿色的)。
绿色物体的边缘(植物行)。
#split the image into blue, green, and red channels
b,g,r = cv2.split(img)
#here we 'amplify' the color green to stand out, without red/blue
gscale = 2*g-r-b #we are going to refer to this as our grayscale img
#Canny edge detection
gscale = cv2.Canny(gscale,280,290,apertureSize = 3)
#checking the results (good practice)
plt.figure()
plt.plot(), plt.imshow(gscale)
plt.title('Canny Edge-Detection Results')
plt.xticks([]), plt.yticks([])
plt.show()
我发现的难点是在cv2.Canny()函数中调整min和max参数。再做一个预处理步骤,我们就能找到每行"咖啡"。
骨架化是将我们的兴趣区域细化到它们的二元组成部分的过程。这使得我们更容易执行模式识别。之前的步骤是必须的:
size = np.size(gscale) #returns the product of the array dimensions
skel = np.zeros(gscale.shape,np.uint8) #array of zeros
ret,gscale = cv2.threshold(gscale,128,255,0) #thresholding the image
element = cv2.getStructuringElement(cv2.MORPH_CROSS,(3,3))
done = False
while( not done):
eroded = cv2.erode(gscale,element)
temp = cv2.dilate(eroded,element)
temp = cv2.subtract(gscale,temp)
skel = cv2.bitwise_or(skel,temp)
gscale = eroded.copy()
zeros = size - cv2.countNonZero(gscale)
if zeros==size:
done = True
现在,我们已经精简了我们以前处理过的灰度图像。这意味着计算机应该有一个更容易的时间执行Hough线算法,它给了我们每个咖啡行的边界
lines = cv2.HoughLines(skel,1,np.pi/180,130)
a,b,c = lines.shape
for i in range(a):
rho = lines[i][0][0]
theta = lines[i][0][1]
a = np.cos(theta)
b = np.sin(theta)
x0 = a*rho
y0 = b*rho
x1 = int(x0 + 1000*(-b))
y1 = int(y0 + 1000*(a))
x2 = int(x0 - 1000*(-b))
y2 = int(y0 - 1000*(a))
cv2.line(img,(x1,y1),(x2,y2),(0,0,255),2, cv2.LINE_AA)
#showing the results:
plt.subplot(121)
#OpenCV reads images as BGR, this corrects so it is displayed as RGB
plt.plot(),plt.imshow(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
plt.title('Row Detection'), plt.xticks([]), plt.yticks([])
plt.subplot(122)
plt.plot(),plt.imshow(skel,cmap='gray')
plt.title('Skeletal Image'), plt.xticks([]), plt.yticks([])
plt.show()
正如你所看到的,我们制作的Python程序本身做得很好,不需要ML分类器模型或其他预先训练的数据。当然,我们只能检测到现场的大部分行。为什么是这样?
需要改进的地方可能包括颜色转换和镂空的迭代。这可以减少误报,并且可以提高程序检测的准确性。
本文暂时没有评论,来添加一个吧(●'◡'●)