杂草区域的识别方法和装置转让专利

申请号 : CN202010537565.9

文献号 : CN112541383B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 黄敬易

申请人 : 广州极飞科技股份有限公司

摘要 :

本发明公开了一种杂草区域的识别方法和装置。其中,该方法包括:获取多张作物图像,并对多张作物图像进行处理,得到数据集;基于数据集对神经网络模型进行训练,得到作物区域识别模型;基于作物区域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型;基于杂草识别模型对待识别区域的待识别图像进行识别,得到待识别区域中的杂草区域。本发明解决了现有技术中直接人工标记杂草所导致的数据标注工作量大的技术问题。

权利要求 :

1.一种杂草区域的识别方法,其特征在于,包括:获取多张作物图像,并对所述多张作物图像进行处理,得到数据集;

基于所述数据集对神经网络模型进行训练,得到作物区域识别模型,所述作物区域识别模型用于识别作物区域,所述作物区域是不包含杂草的区域;

基于所述作物区域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型;

基于所述杂草识别模型对待识别区域的待识别图像进行识别,得到所述待识别区域中的杂草区域;

其中,对所述多张作物图像进行处理,得到所述数据集,包括:对所述多张作物图像进行处理,得到作物区域所对应的标签图;

确定所述多张作物图像以及所述标签图的对应关系,基于所述对应关系获取所述数据集;

其中,对所述多张作物图像进行处理,得到作物区域所对应的标签图,包括:对所述多张作物图像进行二值化处理,得到二值化图像;

将所述二值化图像转换为种植行方向为垂直方向的第一图像;

检测所述第一图像中的植被种植状态,其中,所述植被种植状态至少包括:种植行内连续密植状态和种植行内稀疏种植状态;

根据所述植被状态对所述第一图像进行反转处理,得到所述标签图。

2.根据权利要求1所述的方法,其特征在于,对所述多张作物图像进行二值化处理,得到二值化图像,包括:

获取所述多张作物图像的多个预设颜色通道的颜色值;

基于所述多个预设颜色通道的颜色值得到所述多张作物图像中每个像素点所对应的颜色指数;

基于所述颜色指数以及预设的颜色阈值对所述多张作物图像进行二值化处理,得到所述二值化图像。

3.根据权利要求1所述的方法,其特征在于,将所述二值化图像转换为种植行方向为垂直方向的第一图像,包括:

基于霍夫检测直线算法确定所述二值化图像中的作物的种植行方向;

对所述二值化图像扩充处理,得到预设形状的第二图像,其中,所述第二图像中的扩充区域所对应的像素值为零值;

基于所述种植行方向对所述第二图像进行旋转处理,得到所述种植行方向为垂直方向的第一图像。

4.根据权利要求1所述的方法,其特征在于,根据所述植被种植状态对所述第一图像进行反转处理,得到所述标签图,包括:在所述植被种植状态为所述种植行内连续密植状态的情况下,在所述垂直方向对所述第一图像中的非零像素的个数进行累加处理,得到第一累加曲线;

对所述第一累加曲线进行平滑处理,得到第一平滑曲线;

确定所述第一平滑曲线所对应的特征信息,其中,所述特征信息至少包括:波峰顶点信息以及种植行的宽度;

基于所述特征信息对所述第一图像中的种植行进行逐行覆盖操作,得到第三图像;

对所述第三图像进行反转操作,得到所述标签图。

5.根据权利要求1所述的方法,其特征在于,根据所述植被种植状态对所述第一图像进行反转处理,得到所述标签图,包括:在所述植被种植状态为所述种植行内稀疏种植状态的情况下,在所述垂直方向对所述第一图像中的零像素的个数进行累加处理,得到第二累加曲线;

对所述第二累加曲线进行平滑处理,得到第二平滑曲线;

确定所述第二平滑曲线的波峰顶点信息;

基于所述波峰顶点信息对所述第一图像中的种植行进行分割处理,得到种植行区域;

对所述种植行区域逐行进行连通域处理,得到第四图像;

对所述第四图像进行反转操作,得到所述标签图。

6.根据权利要求5所述的方法,其特征在于,对所述种植行区域逐行进行连通域处理,得到第四图像,包括:

对所述种植行区域进行筛选,得到作物连通域;

对所述作物连通域进行分析处理,得到分析结果,其中,所述分析处理至少包括如下之一:面积分析、特征分析、形状分析、纹理分析;

根据所述分析结果对所述作物连通域进行标记,得到所述第四图像。

7.根据权利要求1所述的方法,其特征在于,基于所述数据集对神经网络模型进行训练,得到作物区域识别模型,包括:基于所述数据集对卷积神经网络进行训练,得到所述作物区域识别模型。

8.根据权利要求7所述的方法,其特征在于,基于所述数据集对卷积神经网络进行训练,得到所述作物区域识别模型,包括:从所述数据集中获取第一训练数据和第一测试数据;

基于所述第一训练数据对所述卷积神经网络进行训练,得到预训练的作物区域识别模型;

基于所述第一测试数据对所述预训练的作物区域识别模型进行测试,得到第一测试结果;

基于所述第一测试结果对所述预训练的作物区域识别模型进行参数优化,得到目标作物区域识别模型。

9.根据权利要求1所述的方法,其特征在于,基于所述作物区域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型,包括:获取包含杂草的图集;

基于所述作物区域识别模型对所述图集进行识别处理,得到识别结果;

基于所述识别结果对所述图集中的杂草区域进行标记,得到杂草数据集;

基于所述杂草数据集对预设的神经网络模型进行训练,得到所述杂草识别模型。

10.根据权利要求9所述的方法,其特征在于,基于所述图集对所述作物区域识别模型进行识别处理,得到识别结果,包括:基于所述图集对所述作物区域识别模型进行识别处理,确定所述图集中的作物区域;

基于所述识别结果对所述图集中的杂草区域进行标记,得到杂草数据集,包括:基于预设筛选条件以及所述识别结果对所述图集中的杂草区域进行标记,得到所述杂草数据集,其中,所述预设筛选条件至少包括连通域面积筛选条件。

11.根据权利要求1所述的方法,其特征在于,所述方法还包括:获取包含杂草的图集;

对所述图集中的杂草区域进行标记,得到杂草数据集;

基于所述杂草数据集对预设的神经网络模型进行训练,得到所述杂草识别模型。

12.根据权利要求9或11中任意一项所述的方法,其特征在于,基于所述杂草数据集对预设的神经网络模型进行训练,得到所述杂草识别模型,包括:从所述杂草数据集中获取第二训练数据和第二测试数据;

基于所述第二训练数据对所述预设的神经网络模型进行训练,得到预训练的杂草识别模型;

基于所述第二测试数据对所述预训练的杂草识别模型进行测试,得到第二测试结果;

基于所述第二测试结果对所述预训练的杂草识别模型进行参数优化,得到目标杂草识别模型。

13.一种杂草区域的识别方法,其特征在于,包括:获取待识别区域的待识别图像;

基于杂草识别模型对所述待识别图像进行识别,得到识别结果,其中,所述识别结果用于表征所述待识别区域中的杂草区域,所述杂草识别模型是基于作物区域识别模型得到的,所述作物区域识别模型用于识别所述待识别区域内的作物区域,所述作物区域是不包含杂草的区域;

所述方法还包括:

获取多张作物图像,并对所述多张作物图像进行处理,得到数据集;

基于所述数据集对神经网络模型进行训练,得到作物区域识别模型;

其中,对所述多张作物图像进行处理,得到所述数据集,包括:对所述多张作物图像进行处理,得到作物区域所对应的标签图;

确定所述多张作物图像以及所述标签图的对应关系,基于所述对应关系获取所述数据集;

其中,对所述多张作物图像进行处理,得到作物区域所对应的标签图,包括:对所述多张作物图像进行二值化处理,得到二值化图像;

将所述二值化图像转换为种植行方向为垂直方向的第一图像;

检测所述第一图像中的植被种植状态,其中,所述植被状态至少包括:种植行内连续密植状态和种植行内稀疏种植状态;

根据所述植被状态对所述第一图像进行反转处理,得到所述标签图。

14.一种除草方法,其特征在于,通过权利要求1至12中任意一项所述的方法识别杂草,得到杂草位置,所述方法还包括:获取待除草区域的区域图像;

在所述区域图像中对所述杂草位置进行标记,得到标记位置;

控制除草设备按照所述标记位置执行除草操作,其中,所述除草操作包括如下至少之一:喷除草剂、拔除作业。

15.一种除草路径规划方法,其特征在于,通过权利要求1至12中任意一项所述的方法识别杂草,得到杂草位置,所述方法还包括:获取待除草区域的区域图像;

根据所述杂草位置以及所述区域图像生成进行除草作业的作业路径。

16.一种产量预估方法,其特征在于,通过权利要求1至12中任意一项所述的方法识别杂草,得到杂草位置,包括:

确定待预估区域内无杂草时的目标产量;

根据所述杂草位置确定杂草面积与所述待预估区域的区域面积的比值;

根据所述比值确定杂草所造成的减产产量;

根据所述目标产量以及所述减产产量确定所述待预估区域内作物的预估产量。

17.一种杂草区域的识别装置,其特征在于,包括:获取模块,用于获取多张作物图像,并对所述多张作物图像进行处理,得到数据集;

训练模块,用于基于所述数据集对神经网络模型进行训练,得到作物区域识别模型,所述作物区域识别模型用于识别作物区域,所述作物区域是不包含杂草的区域;

确定模块,用于基于所述作物区域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型;

识别模块,用于基于所述杂草识别模型对待识别区域的待识别图像进行识别,得到所述待识别区域中的杂草区域

所述装置还用于:

对所述多张作物图像进行处理,得到作物区域所对应的标签图;

确定所述多张作物图像以及所述标签图的对应关系,基于所述对应关系获取所述数据集;

对所述多张作物图像进行二值化处理,得到二值化图像;

将所述二值化图像转换为种植行方向为垂直方向的第一图像;

检测所述第一图像中的植被种植状态,其中,所述植被状态至少包括:种植行内连续密植状态和种植行内稀疏种植状态;

根据所述植被状态对所述第一图像进行反转处理,得到所述标签图。

18.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至13中任意一项所述的杂草区域的识别方法。

19.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至13中任意一项所述的杂草区域的识别方法。

说明书 :

杂草区域的识别方法和装置

技术领域

[0001] 本发明涉及作物识别领域,具体而言,涉及一种杂草区域的识别方法和装置。

背景技术

[0002] 杂草的适应性强,繁殖能力强,杂草在田间的生长会对田间作物的生长以及产量均会产生影响。为了提高田间作物的产量,现有技术可通过化学除草和机械化除草两种方
式进行田间除草,而化学除草会污染环境,机械化除草对环境友好,因此,为了提高田间作
物的产量,同时保护环境,目前许多农场采用机械化除草。然而,对于面积较大的农田,如果
采用人工除草的方式不仅会增加成本,还会降低除草效率。
[0003] 随着计算机技术的发展,农田也采用了自动化设备,例如,使用田间机器人巡查的方式来确定农田中的杂草区域;又例如,使用无人机巡视,通过无人机观察拍到的照片来确
定农田中的杂草区域。在确定了杂草区域之后,可使用自动化的除草设备进行田间除草。
[0004] 然而,现有的通过图像分析来确定杂草区域的方式(例如,无人机拍照确定杂草区域的方式),需要人工干预的环节较多,鲁棒性差。另外,现有技术还可通过神经网络模型对
农田图像进行识别处理来确定杂草区域,但现有技术通常是通过人工标注数据的方式来训
练神经网络模型,而且,现有的神经网络模型严重依赖于标注数据的质量与数量。如果需要
获得高鲁棒性、精度高的神经网络模型,则需要大量的标注数据,而且不同地域不同作物下
杂草的类型不同,这又增加了数据标注的工作量。
[0005] 针对上述的问题,目前尚未提出有效的解决方案。

发明内容

[0006] 本发明实施例提供了一种杂草区域的识别方法和装置,以至少解决现有技术中直接人工标记杂草所导致的数据标注工作量大的技术问题。
[0007] 根据本发明实施例的一个方面,提供了一种杂草区域的识别方法,包括:获取多张作物图像,并对多张作物图像进行处理,得到数据集;基于数据集对神经网络模型进行训
练,得到作物区域识别模型;基于作物区域识别模型对包含杂草的图集进行识别的识别结
果确定杂草识别模型;基于杂草识别模型对待识别区域的待识别图像进行识别,得到待识
别区域中的杂草区域。
[0008] 进一步地,杂草区域的识别方法还包括:对多张作物图像进行处理,得到作物区域所对应的标签图;确定多张作物图像以及标签图的对应关系,基于对应关系获取数据集。
[0009] 进一步地,杂草区域的识别方法还包括:对多张作物图像进行二值化处理,得到二值化图像;将二值化图像转换为种植行方向为垂直方向的第一图像;检测第一图像中的植
被种植状态,其中,植被种植状态至少包括:种植行内连续密植状态和种植行内稀疏种植状
态;根据植被种植状态对第一图像进行反转处理,得到标签图。
[0010] 进一步地,杂草区域的识别方法还包括:获取多张作物图像的多个预设颜色通道的颜色值;基于多个预设颜色通道的颜色值得到多张作物图像中每个像素点所对应的颜色
指数;基于颜色指数以及预设的颜色阈值对多张作物图像进行二值化处理,得到二值化图
像。
[0011] 进一步地,杂草区域的识别方法还包括:基于霍夫检测直线算法确定二值化图像中的作物的种植行方向;对二值化图像扩充处理,得到预设形状的第二图像,其中,第二图
像中的扩充区域所对应的像素值为零值;基于种植行方向对第二图像进行旋转处理,得到
种植行方向为垂直方向的第一图像。
[0012] 进一步地,杂草区域的识别方法还包括:在植被种植状态为种植行内连续密植状态的情况下,在垂直方向对第一图像中的非零像素的个数进行累加处理,得到第一累加曲
线;对第一累加曲线进行平滑处理,得到第一平滑曲线;确定第一平滑曲线所对应的特征信
息,其中,特征信息至少包括:波峰顶点信息以及种植行的宽度;基于特征信息对第一图像
中的种植行进行逐行覆盖操作,得到第三图像;对第三图像进行反转操作,得到标签图。
[0013] 进一步地,杂草区域的识别方法还包括:在植被种植状态为种植行内稀疏种植状态的情况下,在垂直方向对第一图像中的零像素的个数进行累加处理,得到第二累加曲线;
对第二累加曲线进行平滑处理,得到第二平滑曲线;确定第二平滑曲线的波峰顶点信息;基
于波峰顶点信息对第一图像中的种植行进行分割处理,得到种植行区域;对种植行区域逐
行进行连通域处理,得到第四图像;对第四图像进行反转操作,得到标签图。
[0014] 进一步地,杂草区域的识别方法还包括:对种植行区域进行筛选,得到作物连通域;对作物连通域进行分析处理,得到分析结果,其中,分析处理至少包括如下之一:面积分
析、特征分析、形状分析、纹理分析;根据分析结果对作物连通域进行标记,得到第四图像。
[0015] 进一步地,杂草区域的识别方法还包括:基于数据集对卷积神经网络进行训练,得到作物区域识别模型。
[0016] 进一步地,杂草区域的识别方法还包括:从数据集中获取第一训练数据和第一测试数据;基于第一训练数据对卷积神经网络进行训练,得到预训练的作物区域识别模型;基
于第一测试数据对预训练的作物区域识别模型进行测试,得到第一测试结果;基于第一测
试结果对预训练的作物区域识别模型进行参数优化,得到目标作物区域识别模型。
[0017] 进一步地,杂草区域的识别方法还包括:获取包含杂草的图集;基于作物区域识别模型对图集进行识别处理,得到识别结果;基于识别结果对图集中的杂草区域进行标记,得
到杂草数据集;基于杂草数据集对预设的神经网络模型进行训练,得到杂草识别模型。
[0018] 进一步地,杂草区域的识别方法还包括:基于图集对作物区域识别模型进行识别处理,确定图集中的作物区域;基于预设筛选条件以及识别结果对图集中的杂草区域进行
标记,得到杂草数据集,其中,预设筛选条件至少包括连通域面积筛选条件。
[0019] 进一步地,杂草区域的识别方法还包括:获取包含杂草的图集;对图集中的杂草区域进行标记,得到杂草数据集;基于杂草数据集对预设的神经网络模型进行训练,得到杂草
识别模型。
[0020] 进一步地,杂草区域的识别方法还包括:从杂草数据集中获取第二训练数据和第二测试数据;基于第二训练数据对预设的神经网络模型进行训练,得到预训练的杂草识别
模型;基于第二测试数据对预训练的杂草识别模型进行测试,得到第二测试结果;基于第二
测试结果对预训练的杂草识别模型进行参数优化,得到目标杂草识别模型。
[0021] 根据本发明实施例的另一方面,还提供了一种杂草区域的识别方法,包括:获取待识别区域的待识别图像;基于杂草识别模型对待识别图像进行识别,得到识别结果,其中,
识别结果用于表征待识别区域中的杂草区域,杂草识别模型是基于作物区域识别模型得到
的,作物区域识别模型用于识别待识别区域内的作物区域。
[0022] 根据本发明实施例的另一方面,还提供了一种除草方法,通过上述的杂草区域的识别方法识别杂草,得到杂草位置,包括:获取待除草区域的区域图像;在区域图像中对杂
草位置进行标记,得到标记位置;控制除草设备按照标记位置执行除草操作,其中,除草操
作包括如下至少之一:喷除草剂、拔除作业。
[0023] 根据本发明实施例的另一方面,还提供了一种除草路径规划方法,通过上述的杂草区域的识别方法识别杂草,得到杂草位置,包括:获取待除草区域的区域图像;根据杂草
位置以及区域图像生成进行除草作业的作业路径。
[0024] 根据本发明实施例的另一方面,还提供了一种产量预估方法,通过上述的杂草区域的识别方法识别杂草,得到杂草位置,包括:确定待预估区域内无杂草时的目标产量;根
据杂草位置确定杂草面积与待预估区域的区域面积的比值;根据比值确定杂草所造成的减
产产量;根据目标产量以及减产产量确定待预估区域内作物的预估产量。
[0025] 根据本发明实施例的另一方面,还提供了一种杂草区域的识别装置,包括:获取模块,用于获取多张作物图像,并对多张作物图像进行处理,得到数据集;训练模块,用于基于
数据集对神经网络模型进行训练,得到作物区域识别模型;确定模块,用于基于作物区域识
别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型;识别模块,用于基于杂
草识别模型对待识别区域的待识别图像进行识别,得到待识别区域中的杂草区域。
[0026] 根据本发明实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述的杂草区域的识别方法。
[0027] 根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行上述的杂草区域的识别方法。
[0028] 在本发明实施例中,采用基于作物区域识别模型所确定的杂草识别模型来识别待识别图像中的杂草区域的方式,在获取多张作物图像之后,对多张作物图像进行处理,得到
数据集,然后基于数据集对神经网络模型进行训练,得到作物区域识别模型,并基于作物区
域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型,最后,基于杂草识
别模型对待识别区域的待识别图像进行识别,得到待识别区域中的杂草区域。
[0029] 在上述过程中,杂草识别模型并不是通过人工标注数据的方式得到的,而是通过作物区域识别模型得到的,其中,作物区域识别模型是用于识别田间中的作物的识别模型。
由于在田间作物的区域通常大于杂草区域,而从包含少量杂草区域的作物图像中易训练得
到作物区域识别模型,进而可快速的得到杂草识别模型。与现有的通过人工标注杂草的方
式相比,本申请能够快速的识别田间的杂草区域。
[0030] 由此可见,本申请所提供的方案达到了基于杂草识别模型快速识别杂草的目的,从而实现了快速识别杂草区域的技术效果,进而解决了现有技术中直接人工标记杂草所导
致的数据标注工作量大的技术问题。

附图说明

[0031] 此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
[0032] 图1是根据本发明实施例的一种杂草区域的识别方法流程图;
[0033] 图2是根据本发明实施例的一种可选的原始的作物图像的示意图;
[0034] 图3是根据本发明实施例的一种可选的第一图像的示意图;
[0035] 图4是根据本发明实施例的一种可选的原始的作物图像的示意图;
[0036] 图5是根据本发明实施例的一种可选的第一图像的示意图;
[0037] 图6是根据本发明实施例的一种可选的第一累加曲线的示意图;
[0038] 图7是根据本发明实施例的一种可选的种植行区域覆盖图;
[0039] 图8是根据本发明实施例的一种可选的第三图像的示意图;
[0040] 图9是根据本发明实施例的一种可选的第二累加曲线的示意图;
[0041] 图10是根据本发明实施例的一种可选的杂草区域的识别方法的流程图;
[0042] 图11是根据本发明实施例的一种杂草区域的识别方法流程图;以及
[0043] 图12是根据本发明实施例的一种杂草区域的识别装置示意图。

具体实施方式

[0044] 为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是
本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人
员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范
围。
[0045] 需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用
的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或
描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆
盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于
清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品
或设备固有的其它步骤或单元。
[0046] 实施例1
[0047] 根据本发明实施例,提供了一种杂草区域的识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,
虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示
出或描述的步骤。
[0048] 图1是根据本发明实施例的杂草区域的识别方法流程图,其中,在本实施例中,杂草识别系统可作为本实施例中的杂草区域的识别方法的执行主体。如图1所示,该方法包括
如下步骤:
[0049] 步骤S102,获取多张作物图像,并对多张作物图像进行处理,得到数据集。
[0050] 在步骤S102中,作物图像中至少包括作物区域,其中,作物区域为农田中种植作物的区域,例如,种植水稻、小麦的区域。
[0051] 在一种可选的实施例中,无人机可在农田上方的空中进行俯拍,得到多张作物图像,并将俯拍得到的多张作物图像传输至杂草识别系统。杂草识别系统在接收到无人机拍
摄的多张作物图像之后,对多张作物图像进行处理,并将处理后的多张作物图像作为数据
集,以实现对作物区域识别模型的训练。
[0052] 需要说明的是,无人机在俯拍农田得到多张作物图像的过程中,可对种植不同作物类型的农田进行拍摄,以使得根据本申请的杂草区域的识别方法得到杂草识别模型更具
有广泛性和鲁棒性。
[0053] 步骤S104,基于数据集对神经网络模型进行训练,得到作物区域识别模型。
[0054] 在步骤S104中,作物区域识别模型用于识别农田区域中的作物区域。另外,上述神经网络模型可以为但不限于卷积神经网络。其中,在神经网络模型为卷积神经网络的情况
下,杂草识别系统基于数据集对卷积神经网络进行训练,得到作物区域识别模型。
[0055] 步骤S106,基于作物区域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型。
[0056] 需要说明的是,在步骤S102中,多张作物图像可以为没有杂草,或者包含少量杂草的农田的图像,而在步骤S106中,图集可以为农田航拍图集,其中,农田航拍图集中的图像
为包含杂草的图像。
[0057] 另外,由步骤S106可知,本申请中的杂草识别模型并不是基于人工标注的方式得到的,而是基于作物区域识别模型得到的。容易注意到的是,在机械化农田中,作物的数量
通常远大于杂草的数量,因此,基于包含少量杂草的农田图像容易训练得到作物区域识别
模型,进而也容易得到杂草识别模型,从而避免了现有技术中,直接人工逐个标记杂草工作
量大,且严重依赖于标记质量的问题。
[0058] 步骤S108,基于杂草识别模型对待识别区域的待识别图像进行识别,得到待识别区域中的杂草区域。
[0059] 在步骤S108中,在得到杂草识别模型之后,杂草识别系统可将待识别区域的待识别图像输入至杂草识别模型,杂草识别模型即可输出待识别图像中的杂草区域。在一种可
选的实施例中,杂草识别模型还可输出杂草区域在待识别区域中的位置信息以及面积信息
等。可选的,杂草识别系统具有显示设备,其可在待识别图像标记出杂草区域的位置信息以
及面积信息。
[0060] 在另一种可选的实施例中,杂草识别模型还可识别出杂草区域内所对应的杂草类型,此时,杂草识别系统可在显示设备中显示待识别图像中的杂草区域的位置信息、面积信
息、杂草种类,并根据杂草区域的位置信息、面积信息以及杂草种类给出对应的除草策略,
例如,除草工具、除草时间以及预计的除草时长等信息,以供用户参考。
[0061] 基于上述步骤S102至步骤S108所限定的方案,可以获知,采用基于作物区域识别模型所确定的杂草识别模型来识别待识别图像中的杂草区域的方式,在获取多张作物图像
之后,对多张作物图像进行处理,得到数据集,然后基于数据集对神经网络模型进行训练,
得到作物区域识别模型,并基于作物区域识别模型对包含杂草的图集进行识别的识别结果
确定杂草识别模型,最后,基于杂草识别模型对待识别区域的待识别图像进行识别,得到待
识别区域中的杂草区域。
[0062] 容易注意到的是,杂草识别模型并不是通过人工标注数据的方式得到的,而是通过作物区域识别模型得到的,其中,作物区域识别模型是用于识别田间中的作物的识别模
型。由于在田间作物的区域通常大于杂草区域,而从包含少量杂草区域的作物图像中易训
练得到作物区域识别模型,进而可快速的得到杂草识别模型。与现有的通过人工标注杂草
的方式相比,本申请能够快速的识别田间的杂草区域。
[0063] 由此可见,本申请所提供的方案达到了基于杂草识别模型快速识别杂草的目的,从而实现了快速识别杂草区域的技术效果,进而解决了现有技术中直接人工标记杂草所导
致的数据标注工作量大的技术问题。
[0064] 在一种可选的实施例中,在获取到多张作物图像之后,杂草识别系统对多张作物图像进行处理,得到数据集。具体的,杂草识别系统对多张作物图像进行处理,得到作物区
域所对应的标签图,然后确定多张作物图像以及标签图的对应关系,并基于对应关系获取
数据集。
[0065] 需要说明的是,在上述过程中,标签图为对作物图像中的作物区域进行标记之后的图像,另外,在得到标签图之后,杂草识别系统将标签图与作物图像进行成对存储,从而
得到数据集。
[0066] 可选的,杂草识别系统首先对多张作物图像进行二值化处理,得到二值化图像,然后将二值化图像转换为种植行方向为垂直方向的第一图像,并检测第一图像中的植被种植
状态,最后再根据植被种植状态对第一图像进行反转处理,得到标签图,其中,植被种植状
态至少包括:种植行内连续密植状态(例如,小麦、甘蔗等作物的条带状的种植状态)和种植
行内稀疏种植状态(例如,水稻、果树等作物的种植状态)。
[0067] 需要说明的是,上述二值化处理的方法可以包括但不限于颜色空间法、颜色指数法、植被指数法等,其中,颜色空间法可以为量RGB(Red、Green、Blue,即红绿蓝)转换为HSV
(Hue、Saturation、Value,即色调、饱和度、明度)的方法。
[0068] 在一种可选的实施例中,杂草识别系统使用颜色指数法对多张作物图像进行二值化处理,得到二值化图像。具体的,杂草识别系统获取多张作物图像的多个预设颜色通道的
颜色值,然后基于多个预设颜色通道的颜色值得到多张作物图像中每个像素点所对应的颜
色指数,最后基于颜色指数以及预设的颜色阈值对多张作物图像进行二值化处理,得到二
值化图像。其中,预设颜色通道可以为红绿蓝三个颜色通道。
[0069] 可选的,上述颜色指数法可以为超绿指数(Excess Green)法。其中,超绿指数ExG可满足下式:
[0070] ExG=2*Green‑Red‑Blue
[0071] 在上式中,Red、Green、Blue分别为红绿蓝三通道的像素值。
[0072] 需要说明的是,上述公式在实际使用时,需要进行归一化等数学处理。另外,在得到超绿指数之后,杂草识别系统通过超绿指数ExG(即颜色阈值)从多张作物图像分离出作
物区域,其中,作物图像中的超绿指数大于预设的颜色阈值的位置设置为非零值,作物图像
中的超绿指数小于预设的颜色阈值的位置置零,从而得到二值化图。其中,上述预设的颜色
阈值可以人为设定,也可以通过Ostu法获得。
[0073] 进一步地,在得到二值化图像之后,杂草识别系统进一步将二值化图像转换为种植行方向为垂直方向的第一图像。具体的,杂草识别系统基于霍夫检测直线算法确定二值
化图像中的作物的种植行方向,并对二值化图像扩充处理,得到预设形状的第二图像,然后
基于种植行方向对第二图像进行旋转处理,得到种植行方向为垂直方向的第一图像。其中,
第二图像中的扩充区域所对应的像素值为零值。
[0074] 可选的,杂草识别系统通过如下的霍夫检测直线法来确定种植方向:
[0075] 首先杂草识别系统将二值化图转换到极坐标系霍夫空间,然后再通过霍夫空间累加器返回靠前的直线的角度、半径列表,对列表数据进行统计分析,得到种植行主方向。其
中,上述统计分析的方法包括但不限于选取出现次数最多的角度作为种植行方向,当靠前
的直线的角度、半径列表的数量小于预设数量时,可对靠前的直线的角度按照出现次数的
多少进行排序,并选取次数最多的角度作为种植行方向。
[0076] 进一步地,在确定了种植行方向后,杂草识别系统将二值化图像扩充至预设形状,其中,预设形状可以为正方形。然后,杂草识别系统根据种植行方向的角度旋转二值化图像
至垂直方向,根据二值化图像的高度、宽度计算二值化图像的对角线长度,填补零值使得二
值化图变为正方形,并根据主方向角度旋转种植行至垂直。如图2和图4为原始的作物图像
的示意图,图3为对图2所示的作物图像的二值化图像进行旋转后所得到的第一图像的示意
图,图5为对图4所示的作物图像的二值化图像进行旋转后所得到的第一图像的示意图,由
图3和图5可知,第一图像中的种植行方向为垂直方向。
[0077] 更进一步的,在得到第一图像之后,杂草识别系统根据植被种植状态来采用不同的方式对第一图像进行反转处理,得到标签图。
[0078] 可选的,在植被种植状态为种植行内连续密植状态的情况下,杂草识别系统在垂直方向对第一图像中的非零像素的个数进行累加处理,得到第一累加曲线,并对第一累加
曲线进行平滑处理,得到第一平滑曲线,然后确定第一平滑曲线所对应的特征信息,并基于
特征信息对第一图像中的种植行进行逐行覆盖操作,得到第三图像,最后对第三图像进行
反转操作,得到标签图。其中,特征信息至少包括:波峰顶点信息以及种植行的宽度。
[0079] 其中,图6示出了一种可选的第一累加曲线的示意图,在图6中,曲线A1为第一累加曲线,曲线B1为第一平滑曲线,顶点C1为波峰顶点。其中,杂草识别系统根据波峰顶点与宽
度逐行覆盖种植行矩形条,生成种植行区域覆盖图(即第三图像),种植行区域覆盖图反旋
转反填补后得到标签图。可选的,种植行区域覆盖图也是二值图,如图7所示的种植行区域
覆盖图,每行对应一个种植行矩形条,矩形条的中线为波峰定点所在列,矩形宽度为波峰宽
度,矩形高度为原图宽度。另外,图8为对种植行区域覆盖图(即第三图像)进行反转操作后
所生成的标签图。
[0080] 需要说明的是,种植行矩形条为理想状态下种植行区域,矩形条内区域为非零值,矩形条间区域为零值。
[0081] 此外,还需要说明的是,对第一累加曲线进行平滑处理的方法包括但不限于移动平均后去噪方法、LOWESS平滑后去噪方法、Univariate Spline拟合后去噪方法、Savitzky_
Golay Filter平滑后去噪方法。其中,对第一累加曲线进行平滑处理可用于修正Savitzky_
Golay Filter平滑后的负数值等。另外,计算平滑后曲线的波峰顶点与宽度可以用
scipy.signal.find_peaks等类似方法。
[0082] 可选的,在植被种植状态为种植行内稀疏种植状态的情况下,在垂直方向对第一图像中的零像素的个数进行累加处理,得到第二累加曲线,并对第二累加曲线进行平滑处
理,得到第二平滑曲线,然后确定第二平滑曲线的波峰顶点信息,并基于波峰顶点信息对第
一图像中的种植行进行分割处理,得到种植行区域,最后对种植行区域逐行进行连通域处
理,得到第四图像,并对第四图像进行反转操作,得到标签图。
[0083] 其中,图9示出了一种可选的第二累加曲线的示意图,在图9中,曲线A2为第二累加曲线,曲线B2为第二平滑曲线,顶点C2为波峰顶点,直线D为直线集合,任意两条直线D之间
的区域为二值化图像中的种植行区域,其中,种植行区域的宽度大于作物的宽度,直线D为
两行作物的中间分界。
[0084] 可选的,在确定了种植行区域之后,杂草识别系统对种植行区域逐行进行连通域处理,得到第四图像。具体的,杂草识别系统对种植行区域进行筛选,得到作物连通域,然后
对作物连通域进行分析处理,得到分析结果,并根据分析结果对作物连通域进行标记,得到
第四图像。其中,分析处理至少包括如下之一:面积分析、特征分析、形状分析、纹理分析。
[0085] 需要说明的是,杂草识别系统根据波峰顶点切割出种植行区域,逐行筛选出作物连通域并导出第四图像,第四图像反旋转反填补后得到标签图。其中,杂草识别系统逐行筛
选出作物连通域,对种植行区域内的连通域进行面积分析或者特征分析(例如,形状分析,
或结合原图进行纹理分析),并将符合作物特征的连通域进行标记。
[0086] 此外,还需要说明的是,形状分析可以是进行椭圆分析,例如,棉花叶片是椭圆。纹理分析是通过连通域找到对应的原图区域,进行纹理分析,其中,纹理分析工具包括但不限
于GaborFilter。分析方法包括但不限于比对作物植被纹理,例如,如果与小麦植被纹理相
似度在置信区间内,则可判别为作物。
[0087] 在一种可选的实施例中,图10示出了一种可选的杂草区域的识别方法的流程图,由图10可知,杂草识别系统首先从作物图像中提取作物所在区域,并将其转换为二值化图
像,然后基于二值化图像确定种植行方向,并填补至边长为原图对角线长度的正方形,并根
据种植行方向的角度对二值化图像进行旋转,使得种植行方向为垂直方向。然后,杂草识别
系统在分别基于植被种植状态采用两种方式对旋转后的二值化图像进行处理,得到标签
图。其中,在植被种植状态为种植行内连续密植状态和种植行内稀疏种植状态的情况下,得
到标签图的方法已在上文中进行说明,在此不再赘述。
[0088] 另外,由图10可知,在得到标签图之后,杂草识别系统将标签图与作物图像进行成对存储,从而得到数据集,然后,基于数据集对卷积神经网络进行训练,得到作物区域识别
模型。具体的,杂草识别系统从数据集中获取第一训练数据和第一测试数据,并基于第一训
练数据对卷积神经网络进行训练,得到预训练的作物区域识别模型,然后基于第一测试数
据对预训练的作物区域识别模型进行测试,得到第一测试结果,最后基于第一测试结果对
预训练的作物区域识别模型进行参数优化,得到目标作物区域识别模型。
[0089] 需要说明的是,在存在“作物区域‑农田航拍图”的数据集的情况下,杂草识别系统可通过训练卷积神经网络得到作物区域识别模型。其中,数据集的获取可以通过人工标注
的方式得到,也可以通过上述方法获得。
[0090] 进一步地,由图10可知,在得到作物区域识别模型之后,杂草识别系统基于作物区域识别模型对包含杂草的图集进行识别的识别结果确定杂草识别模型。具体的,杂草识别
系统获取包含杂草的图集,并基于作物区域识别模型对图集进行识别处理,得到识别结果,
然后基于识别结果对图集中的杂草区域进行标记,得到杂草数据集,最后基于杂草数据集
对预设的神经网络模型进行训练,得到杂草识别模型。
[0091] 需要说明的是,杂草识别系统还可基于作物区域识别模型对图集进行识别处理,确定图集中的作物区域,并基于预设筛选条件以及识别结果对图集中的杂草区域进行标
记,得到杂草数据集,其中,预设筛选条件至少包括连通域面积筛选条件。
[0092] 此外,还需要说明的是,除图10所示的通过作物区域识别模型来对杂草区域进行标记的方式,还可采用人工直接标记的方式得到杂草数据集。具体的,杂草识别系统首先获
取包含杂草的图集,然后对图集中的杂草区域进行标记,得到杂草数据集,最后基于杂草数
据集对预设的神经网络模型进行训练,得到杂草识别模型。
[0093] 由图10可知,在得到杂草数据集之后,杂草识别系统可基于所述杂草数据集对预设的神经网络模型进行训练,得到所述杂草识别模型。具体的,杂草识别系统首先从杂草数
据集中获取第二训练数据和第二测试数据,并基于第二训练数据对预设的神经网络模型进
行训练,得到预训练的杂草识别模型,然后再基于第二测试数据对预训练的杂草识别模型
进行测试,得到第二测试结果,最后基于第二测试结果对预训练的杂草识别模型进行参数
优化,得到目标杂草识别模型。
[0094] 进一步地,如图10所示,在得到杂草识别模型之后,用户可将待识别图像输入至杂草识别模型中,杂草识别模型即可对待识别图像进行识别处理,得到识别结果,其中,该识
别结果可以包括杂草区域的位置信息、面积信息,还可以包括但不限于杂草种类等信息。
[0095] 需要说明的是,对于机械化种植的农田,基于空中俯拍的农田图像,采用本申请所提供的方案,能够快速地显示或告知杂草的位置与面积,从而提高了杂草的识别效率。
[0096] 实施例2
[0097] 根据本发明实施例,还提供了一种杂草区域的识别方法的实施例,其中,图11是根据本发明实施例的杂草区域的识别方法流程图,如图11所示,该方法包括如下步骤:
[0098] 步骤S1402,获取待识别区域的待识别图像。
[0099] 在步骤S1402中,待识别区域为包含杂草和作物的区域。
[0100] 在一种可选的实施例中,无人机可在农田上方的空中进行俯拍,得到待识别区域的待识别图像,然后,无人机实时将待识别图像传输至杂草识别系统,杂草识别系统在接收
到无人机拍摄的待识别图像之后,可对待识别图像进行预处理,并将预处理后的待识别图
像输入至杂草识别模型,以得到对待识别区域的识别结果。
[0101] 步骤S1404,基于杂草识别模型对待识别图像进行识别,得到识别结果,其中,识别结果用于表征待识别区域中的杂草区域,杂草识别模型是基于作物区域识别模型得到的,
作物区域识别模型用于识别待识别区域内的作物区域。
[0102] 在步骤S1404中,在得到待识别图像之后,杂草识别系统可将待识别区域的待识别图像输入至杂草识别模型,杂草识别模型即可输出待识别图像中的杂草区域。在一种可选
的实施例中,杂草识别模型还可输出杂草区域在待识别区域中的位置信息以及面积信息
等。可选的,杂草识别系统具有显示设备,其可在待识别图像标记出杂草区域的位置信息以
及面积信息。
[0103] 在另一种可选的实施例中,杂草识别模型还可识别出杂草区域内所对应的杂草类型,此时,杂草识别系统可在显示设备中显示待识别图像中的杂草区域的位置信息、面积信
息、杂草种类,并根据杂草区域的位置信息、面积信息以及杂草种类给出对应的除草策略,
例如,除草工具、除草时间以及预计的除草时长等信息,以供用户参考。
[0104] 基于上述步骤S1402至步骤S1404所限定的方案,可以获知,采用基于作物区域识别模型所确定的杂草识别模型来识别待识别图像中的杂草区域的方式,在得打待识别图像
之后,基于杂草识别模型对所述待识别图像进行识别,得到识别结果。
[0105] 容易注意到的是,杂草识别模型并不是通过人工标注数据的方式得到的,而是通过作物区域识别模型得到的,其中,作物区域识别模型是用于识别田间中的作物的识别模
型。由于在田间作物的区域通常大于杂草区域,而从包含少量杂草区域的作物图像中易训
练得到作物区域识别模型,进而可快速的得到杂草识别模型。与现有的通过人工标注杂草
的方式相比,本申请能够快速的识别田间的杂草区域。
[0106] 由此可见,本申请所提供的方案达到了基于杂草识别模型快速识别杂草的目的,从而实现了快速识别杂草区域的技术效果,进而解决了现有技术中直接人工标记杂草所导
致的数据标注工作量大的技术问题。
[0107] 需要说明的是,基于作物区域识别模型得到杂草识别模型的方法已在实施例1中进行说明,在此不再赘述。
[0108] 实施例3
[0109] 根据本发明实施例,还提供了一种除草方法的实施例,其中,该方法可通过上述实施例1中的杂草区域的识别方法识别杂草,得到杂草位置,该方法还包括如下步骤:
[0110] 步骤S1602,获取待除草区域的区域图像。
[0111] 可选的,除草系统可以包括除草控制设备以及除草设备,其中,除草控制设备用于控制除草设备进行除草作业。另外,除草控制设备可作为本实施例所提供的方法的执行主
体。
[0112] 在一种可选的实施例中,无人机可采集待除草区域的区域图像,并将采集到的区域图像传送至除草控制设备,从而除草控制设备可得到上述区域图像,其中,在该场景中,
无人机与除草控制设备为两种不同的设备。在另一种可选的实施例中,除草控制设备可以
为无人机,在该场景中,无人机可直接获取待除草区域的区域图像,并执行步骤S1604和步
骤S1606,即无人机可在区域图像中对杂草位置进行标记,得到标记位置,并控制除草设备
按照标记位置执行除草操作。
[0113] 步骤S1604,在区域图像中对杂草位置进行标记,得到标记位置。
[0114] 需要说明的是,在步骤S1604中,杂草位置可通过实施例1所提供的方法得到。在得到了待除草区域内的杂草位置之后,除草控制设备在区域图像中标出杂草的位置,得到标
记位置。可选的,可以使用与待除草区域的背景颜色相差较大的颜色来进行标记。
[0115] 步骤S1606,控制除草设备按照标记位置执行除草操作,其中,除草操作包括如下至少之一:喷除草剂、拔除作业。
[0116] 在一种可选的实施例中,在除草控制设备得到区域图像中杂草的标记位置之后,除草控制设备将该标记位置发送至除草设备,除草设备将区域图像中的标记位置转换为待
除草区域中所对应的现实世界中的物理位置,并在物理位置处进行除草操作。
[0117] 在另一种可选的实施例中,在除草控制设备得到区域图像中杂草的标记位置之后,除草控制设备将该标记位置发送至除草设备,除草设备将区域图像中的标记位置转换
为待除草区域中所对应的现实世界中的物理位置,并根据物理位置来确定待除草区域中的
杂草区域,然后在杂草区域内进行除草操作。
[0118] 还存在一种可选的实施例,在除草控制设备得到区域图像中杂草的标记位置之后,除草控制设备将区域图像中的标记位置转换为待除草区域中所对应的现实世界中的物
理位置,并将该物理位置发送至除草设备。除草设备在得到物理位置之后,根据物理位置来
确定待除草区域中的杂草区域,然后在杂草区域内进行除草操作。
[0119] 由上述内容可知,本实施例所提供的除草方法可实现自动对杂草区域的识别,并对杂草区域进行自动除草,与现有技术相比,本实施例所提供的除草方法实现了自动除草,
节省了人力物力,提高了除草效率。
[0120] 实施例4
[0121] 根据本发明实施例,还提供了一种除草路径规划方法的实施例,其中,该方法可通过上述实施例1中的杂草区域的识别方法识别杂草,得到杂草位置,该方法还包括如下步
骤:
[0122] 步骤S1702,获取待除草区域的区域图像。
[0123] 可选的,除草系统可以包括除草控制设备以及除草设备,其中,除草控制设备用于控制除草设备进行除草作业。另外,除草控制设备可作为本实施例所提供的方法的执行主
体。
[0124] 在一种可选的实施例中,无人机可采集待除草区域的区域图像,并将采集到的区域图像传送至除草控制设备,从而除草控制设备可得到上述区域图像,其中,在该场景中,
无人机与除草控制设备为两种不同的设备。在另一种可选的实施例中,除草控制设备可以
为无人机,在该场景中,无人机可直接获取待除草区域的区域图像,并执行步骤S1704,即无
人机可根据杂草位置以及区域图像生成进行除草作业的作业路径,以使除草设备按早作业
路径进行除草作业。
[0125] 步骤S1704,根据杂草位置以及区域图像生成进行除草作业的作业路径。
[0126] 需要说明的是,在步骤S1704中,杂草位置可通过实施例1所提供的方法得到。在得到了待除草区域内的杂草位置之后,除草控制设备在区域图像中标出杂草的位置,得到标
记位置,并将得到至少一个标记位置进行连接,得到多个候选作业路径,然后从多个候选作
业路径中选出最优的候选作业路径,作为除草设备进行除草作业的作业路径。可选的,上述
最优的候选作业路径可以为但不限于除草设备完成除草作业的时长最短的路径,以及除草
设备完成除草作业所移动的距离最短的路径。
[0127] 由上述内容可知,本实施例所提供的除草路径规划方法可得到最优的除草的作业路径,除草设备按照该作业路径进行除草作业可以有效的提高除草效率。
[0128] 实施例5
[0129] 根据本发明实施例,还提供了一种产量预估方法的实施例,其中,该方法可通过上述实施例1中的杂草区域的识别方法识别杂草,得到杂草位置,该方法还包括如下步骤:
[0130] 步骤S1802,确定待预估区域内无杂草时的目标产量。
[0131] 需要说明的是,通过步骤S1802所得到的目标产量为待预估区域内全部种植作物,没有杂草时的理想情况下的作物的产量。
[0132] 步骤S1804,根据杂草位置确定杂草面积与待预估区域的区域面积的比值。
[0133] 需要说明的是,在步骤S1804中,杂草位置可通过实施例1所提供的方法得到。在确定了待预估区域内的杂草位置之后,可根据杂草位置来确定待预估区域内杂草面积,而待
预估区域的区域面积可以通过无人机拍摄的方式来获取。
[0134] 步骤S1806,根据比值确定杂草所造成的减产产量。
[0135] 需要说明的是,上述比值越大,说明杂草所造成的减产产量越大,其中,减产产量可以通过如下公式确定:
[0136] Q1=λQ0
[0137] 在上式中,Q1为减产产量,λ为杂草面积与待预估区域的区域面积的比值,Q0为待预估区域内无杂草时的目标产量。
[0138] 步骤S1808,根据目标产量以及减产产量确定待预估区域内作物的预估产量。
[0139] 可选的,步骤S1808可以满足下式:
[0140] Q=Q0‑Q1
[0141] 在上式中,Q为预估产量,Q1为减产产量,Q0为待预估区域内无杂草时的目标产量。
[0142] 需要说明的是,由上述内容可知,本实施例所提供的产量预估方法可准确的预估种植区域内作物的产量,从而使得作物管理人员根据预估产量以及作物的类型等信息来确
定最优的种植策略,最大化的提高作物的产量,同时也提高了土地的利用率。
[0143] 实施例6
[0144] 根据本发明实施例,还提供了一种杂草区域的识别装置的实施例,其中,图12是根据本发明实施例的杂草区域的识别装置示意图,如图12所示,该装置包括:获取模块1501、
训练模块1503、确定模块1505以及识别模块1507。
[0145] 其中,获取模块1501,用于获取多张作物图像,并对多张作物图像进行处理,得到数据集;训练模块1503,用于基于数据集对神经网络模型进行训练,得到作物区域识别模
型;确定模块1505,用于基于作物区域识别模型对包含杂草的图集进行识别的识别结果确
定杂草识别模型;识别模块1507,用于基于杂草识别模型对待识别区域的待识别图像进行
识别,得到待识别区域中的杂草区域。
[0146] 此处需要说明的是,上述获取模块1501、训练模块1503、确定模块1505以及识别模块1507对应于上述实施例的步骤S102至步骤S108,四个模块与对应的步骤所实现的实例和
应用场景相同,但不限于上述实施例所公开的内容。
[0147] 实施例7
[0148] 根据本发明实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行上述实施例1或实施例2中的杂草区
域的识别方法。
[0149] 实施例8
[0150] 根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行上述实施例1或实施例2中的杂草区域的识别方法。
[0151] 上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0152] 在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0153] 在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为
一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或
者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互
之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连
接,可以是电性或其它的形式。
[0154] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个
单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0155] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单
元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0156] 所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上
或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式
体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机
设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或
部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read‑OnlyMemory)、随机存取存
储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的
介质。
[0157] 以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应
视为本发明的保护范围。