基于无锚框检测网络的茶叶嫩芽识别方法研究

基于无锚框检测网络的茶叶嫩芽识别方法研究


2024年4月6日发(作者:华为荣耀9现在多少钱一部)

第 42 卷第 4 期

2023年 7 月

Journal of South-Central Minzu University(Natural Science Edition)

中南民族大学学报(自然科学版)

Vol.42 No.4

Jul. 2023

基于无锚框检测网络的茶叶嫩芽识别方法研究

毛腾跃,朱俊杰

*

,帖军

(中南民族大学 计算机科学学院 & 湖北省制造企业智能管理工程技术研究中心, 武汉 430074)

摘要 利用机器学习方法进行茶叶嫩芽识别有助于茶叶生产的全程智能化.目前的嫩芽识别方法依赖复杂的预

处理,导致嫩芽识别效率普遍不高.基于无锚框检测网络CenterNet,提出了一种无需预处理的高速茶叶嫩芽识别方

法.针对CenterNet特征提取网络规模过大、识别速度过低的问题,将其特征提取网络替换为ResNet-50.利用改进后

的CenterNet模型识别茶叶的一芽、一芽一叶和一芽二叶部分,得到模型的精确度为83.1%,召回率为85.4%,mAP为

87.7%,识别效果优于同类无预处理识别方法.

关键词 目标检测;深度学习;无锚框检测网络;茶叶嫩芽

中图分类号 TP391.4 文献标志码 A 文章编号 1672-4321(2023)04-0489-08

doi:10.20056/.20230409

Research based on recognition method for tea buds based on anchor

free detection network

( College of Computer Science & Hubei Provincial Engineering Research Center for Intelligent Management of

Manufacturing Enterprises, South-Central Minzu University, Wuhan 430074, China)

Abstract It is helpful to the whole intellectualization of tea production that using machine learning methods to recognize

tea buds. At present, the methods of tea buds recognition based on complex preprocessing, which results in low recognition

CenterNet’s oversize scale and low speed, the proposed method replaced CenterNet’s feature extraction network with

efficiency for tea buds. Based on CenterNet, a method that no pretreatment needed to recognize tea bud is proposed. For

ResNet-50. Recognizing the parts one bud, one bud, one leaf and one bud, two leaf of tea by improved CenterNet. The

precision of tea bud recognition model is 83.1%, recall rate is 85.4%, and mAP is 87.7%. The recognize effect is better

than similar methods without preprocessing.

Keywords target detection; deep learning; anchor free; tea bud

MAO Tengyue,ZHU Junjie

*

,TIE Jun

程机械化、智能化是茶叶生产的必然趋势

[1]

.目前大

宗茶采具有较为成熟的机械化采摘技术,但这种采

在劳动力紧缺和成本持续提升的大环境下,全中的问题,有助于推进茶叶采摘智能化.由于国外

的茶叶产业结构相比国内有较大差异,较少对茶采

方法投入研究,故茶叶智能识别方法基本上都诞生

于国内.

目前茶叶嫩芽识别的研究主要使用预处理搭

配目标检测算法的方法.如王子钰等人

[3]

将茶叶图

像数据集经过颜色特征提取、OTSU分割和形态学

处理等预处理后对SSD

[4]

进行模型训练,得到的SSD

模型的茶叶嫩芽识别准确率为91.5%.孙肖肖等人

[5]

摘方式对采摘目标不加以选择,对茶叶的破坏性

大,会造成一定经济损失;而名优茶采摘需要围绕

茶叶分类品级要求进行,采摘要求高、限制大、机械

化作业难

[2]

.近年来计算机视觉的快速发展,在茶叶

采摘领域衍生出了一批能有效指导茶叶采摘的智

能识别方法,这些方法克服了茶叶机械化采摘过程

收稿日期 2022-01-12 * 通信作者 朱俊杰,研究方向:智能控制,E-mail:****************

作者简介 毛腾跃(1974-),男,副教授,博士,研究方向:智慧农业、智能控制,E-mail:****************

基金项目 湖北省技术创新专项重大项目(2019ABA101);湖北省科技计划项目(2019CFC890)

Copyright©博看网. All Rights Reserved.

490

中南民族大学学报(自然科学版)

第 42 卷

先使用OSTU算法进行预处理,然后将YOLO网络架

[6]

中的多尺度检测修改为大尺度和中尺度检测,

并利用修改后的YOLO模型对茶叶嫩芽进行检测,

识别准确率为84.2%.张雯娟等人

[7]

使用UNet网络

提取茶叶嫩芽的分割图像,然后利用多特征融合的

SSD模型对分割图像进行一芽、一芽一叶、一芽两叶

的检测识别,mAP(mean Average Precision)为87.9%.这

类方法首先通过预处理获取图像中茶叶嫩芽的主

体部分,以规避复杂背景对识别效果的影响,然后

使用目标检测模型对嫩芽主体部分进行精确的识

别,从而保障了嫩芽识别的准确率.

近年来,也有少量基于无预处理茶叶嫩芽识别

方法的研究出现.如吕军等提出一种基于AlexNet卷

积神经网络的茶叶嫩芽状态智能识别算法,对全开

面、半开面和未开面三种的状态茶叶嫩芽的平均识

[9]

别率达到88.0%.许高建等使用基于VGG-16特征提

[8]

图1 茶叶嫩芽样本图像

1.2 预训练数据集

Fig.1 Image of tea bud sample

利用自建数据集从头开始训练一个网络时,可能

遇到模型收敛速度慢的情况,此外,在这种情况下,

需要的数据集的规模也有相当高的要求

[11]

.为了避

免模型收敛慢甚至无法收敛的情况,本文采用预训

练加微调的方式对模型进行训练

[12]

,预训练使用的

数据集为公共标准数据集Pascal VOC2007.

Pascal VOC2007为世界级的计算机视觉挑战赛

取网络的Faster-RCNN

[10]

深度网络模型检测识别一

芽一叶、一芽两叶、无梗茶叶嫩芽,mAP为82.17%.使用

预处理的最大问题是效率过低,对嫩芽进行识别

时,花费在预处理上的时间可能超过识别嫩芽本

身,无预处理茶叶嫩芽识别方法通过去除预处理规

避了这种缺陷,同时也对所使用的目标检测网络有

了更高的要求.

无锚框检测网络使用基于关键点检测的思想

并抛弃了传统检测算法中使用的锚框,这降低了它

对特定尺度目标的偏好,有助于复杂背景图像中目标

的检出,降低了对预处理的依赖,对目标的识别效

果有所保证.本文围绕茶叶品级分类标准,提出一种

不依赖预处理的、基于无锚框检测网络的茶叶嫩芽

识别方法.

(图2),该数据集共计9963幅图,包含20个类.使用

PASCAL VOC挑战赛于2007年提供的标准数据集

Pascal VOC2007数据集进行预训练,能够为图像检

无法使模型收敛的风险,提升模型泛化能力.

测工作提供可靠的预训练模型,降低小规模数据集

图2 Pascal VOC2007部分数据集示意图

1.3 图像数据标注

Fig. 2 Schematic diagram of partial Pascal VOC2007 data sets

通过数据集标注来保存模型训练时需要使用

的监督信息.为保证采集的数据集的标注信息与预

训练数据集一致,使用LabelImg工具来标注图像以

获取Pascal VOC2007格式的标注信息.根据茶叶嫩

芽的品级分类与采摘要求,将目标标注分为三类,

分别为一芽、一芽一叶、一芽二叶,在标注时用“ob”标

注一芽,用“obol”标注一芽一叶,用“obtl”标注一芽

二叶,标注后信息以XML文件格式进行保存,XML

文件的组织形式与Pascal VOC2007的标注信息保

持一致,其中记录了茶叶嫩芽图像的目录位置、尺

寸以及三种标注目标的类别和位置信息(图3).

1.4 数据增强

通过预训练可以获得可靠的预训练模型.为了

1 实验数据集构建

1.1 数据集采集

由于无法通过公共数据集和网络搜索获取到能

够满足实验条件的茶叶图像,本文使用自建数据集

来完成实验.自建数据集中所有的茶叶嫩芽图像是在

湖北省孝感市肖港镇的一个茶园中拍摄所得,使用

的拍摄工具为iPhoneXR手机,拍摄得到的图像尺寸

为3024×4032(图1).为了获取更接近实际采茶环境

下的茶叶嫩芽图像,图像的采集工作分别在晴天、阴

天的8点、10点以及12点三个时间段进行,共采集到

200张自然背景下的茶叶嫩芽图片.

避免被微调后的预训练模型对自建数据集过拟合,

需要对自建数据集进行增广扩容(图4).考虑到自

然情况下可能出现的各种自然因素,将自建数据集

中的茶叶嫩芽图像进行亮度增强、亮度减弱、对比

度增强、对比度减弱、水平镜像翻转、放大和缩小共

Copyright©博看网. All Rights Reserved.

第 4 期

毛腾跃,等:基于无锚框检测网络的茶叶嫩芽识别方法研究

491

嫩芽进行直接识别,所得到方法的识别效果虽然不

及同期有预处理的其他方法,但也证明了不使用预

处理的茶叶嫩芽识别方法是可行的.

2.2 模型简介与分析

图3 茶叶嫩芽图像目标标注

Fig.3 Tea bud image target annotation

2020年,许高建等人

[9]

尝试去除预处理,对茶叶

2019年提出;其结构如图5所示,大体分为四个部

分:(1)预处理;(2)下采样特征提取网络;(3)上采

CenterNet是一种无锚框检测目标检测模型,于

样;(4)三个Header

[14]

.使用本身就自带有上采样结

构的特征提取网络时,CenterNet的下采样部分和上

采样部分可以合并看待.

CenterNet最大的特点是其基于关键点检测的

思想.基于关键点检测即将图像样本中的识别目标

视为一个点,再通过这个点实现目标的检测,该思

想由三步实现:(1)训练阶段,模型以图像中目标的

标注框中心在下采样特征图上的对应坐标为中心,

建立二维高斯分布,获取目标关键点的高斯分布

图,该分布图作为图5中的HeatMap的监督信息;

图4 数据增广

(2)基于该高斯分布图,按2.4节中的公式1训练模

型对目标中心点的泛化能力;(3)检测阶段,先通过

模型估算目标的中心位置,再由此中心回归得到目

标检测框.

茶叶嫩芽识别面临的正负样本失衡问题在本

质上是无法确认混杂在背景目标中的识别目标的位

置,相关研究常利用分割预处理来解决正负样本失

衡问题.传统的茶叶嫩芽识别方法中使用的预处

理,在本质上是先通过分割方法获取识别目标的一

个大概位置,然后再对嫩芽进行识别,这种思想与

CenterNet先确认目标中心位置,再进行具体目标识

况下对茶叶嫩芽的识别.

7种数据增广操作,从而得到1400张增广图像,加上

原图像共计1600张茶叶嫩芽图像.

Fig.4 Data augmentation

2 基于CenterNet的茶叶嫩芽识别方

法研究

2.1 茶叶嫩芽识别方法研究

[13]

数目远低于背景中的其他目标的数目.基于茶叶图

像中失衡的样本信息训练得到的机器学习模型对

嫩芽进行识别时,不可避免地受到嫩芽图像中背景

的影响,导致识别效果不佳.

传统茶叶嫩芽识别方法为了解决正负样本失

衡问题,在对嫩芽目标进行检测时前添加了一个预

处理过程.使用的预处理大多是分割方法,它将嫩

芽图像中的图像主体与图像背景分离,然后将图像

主体输入识别算法进行嫩芽的具体识别.这个预处

理过程的速度一般是极慢的,如文献[7]中使用的

预处理过程耗费的时间达到了40毫秒,而该方法对

嫩芽主体的识别只需要20毫秒左右,作为附加步骤

的预处理反而成为了整个方法的主要时间耗费

来源.

.茶叶图像中有着复杂的背景,需要识别的目标

茶叶嫩芽识别面临的最大问题是正负样本失

别的思想不谋而合.故CenterNet适合于无预处理情

CenterNet使用的特征提取网络是Hourglass-104,

Hourglass-104的主干部分可以看成两个Hourglass-

52的主干部分级联

[15]

.Hourglass-52的整体网络结构

分,下采样与上采样之间用残差结构相连,网络中

每经过两次卷积就会进行一次残差连接,这些设计

使得Hourglass具有较强的特征提取能力,同时也使

得网络的特征提取速度较慢,结构复杂,网络的规

模也比同样深度的其他网络大许多.本文的目标是

探寻一种不使用预处理的茶叶嫩芽识别方法,这类

方法的主要优势是识别效率高;使用Hourglass作为

CenterNet的主干提取网络能够得到一个比较好的识

如图6所示,网络整体上分为下采样与上采样两个部

别效果,但是它复杂的结构和低效的运行速度将会抵

Copyright©博看网. All Rights Reserved.

492

中南民族大学学报(自然科学版)

第 42 卷

图5 CenterNet整体网络结构

Fig.5 Overall network structure of CenterNet

消掉这一类识别方法的主要优势,故考虑将Hourglass

主干特征提取网络替换为一种更简单且兼具性能

的网络.

2.3 更换特征提取网络

50

[16]

,选取ResNet-50的原因如下:(1)CenterNet原

文中使用了ResNet家族的ResNet-18和ResNet-101作

CenterNet识别准确率虽然不如基于Hourglass的

将CenterNet的特征提取网络更换为ResNet-

ì

1-Y

α

log

Y

if Y=1

ï

xycxycxyc

ï

ï

α

1

ï

β

L

k

=-∑

í

,(1)

1-Y

xyc

Y

xyc

N

ï

ï

ï

log 1-Y otherwise###

ï

xyc

î

为网络的Heatmap输出;其中,

YY

xyc

为由目标标注

xyc

N

为输入图像中标注目中心点产生的高斯热力图;

α

β

是超参数,标的数量;设定值分别为2和4.

()()

()

()

()

为CenterNet的主干,基于这两款特征提取网络的

CenterNet,但性能依旧出色

[13]

;(2)本文使用的自建

数据集较小,为防止模型过拟合,不考虑浅层的模

型,为保证模型的识别效率,不考虑过深的模型,权

衡之下,选用ResNet家族中兼具深度与识别效率的

ResNet-50;(3)ResNet-50设计简洁,识别高效,且经

过了计算机视觉各领域多年的考验.综上所述,

ResNet-50能够胜任CenterNet的特征提取网络.

ResNet-50的网络结构如图6所示,同样使用了残差

网络的水平,能够较好地提取图像中的特征信息.

2.4 模型损失

模型损失是衡量模型预测结果好坏的标准,也

结构,但是结构清晰简洁,其深度为50,达到了深度

为网络的Offset输出;其中,

Op

为标注目标的中心

ê

p

ú

ú

ê

êú

ë

R

û

中心偏移损失如公式(2):

1

|

p

|

|

O

ê

L

off

=

--

p

ú

ê

ú

ú

N

p

|

ê

R

R

ëû

()

p

ú

ê

ê

ê

ú

ú

ë

R

û

|

|

|

|

(2)

R

是输入图像的尺度与输出特征图尺度的点坐标;

比值,设定值为4.

尺度损失如公式(3):

L

size

k

为网络的Height/Width输出;

y

(

1

k

)

其中,

S

x

(

1

k

)

p

x

(

2

k

)

,y

(

2

k

)

)为标注目标的目标框的左上角和右下角目

N

为标;

x

(

2

k

)

-x

(

1

k

)

,y

(

2

k

)

-y

(

1

k

)

为标注目标的宽和高;

1

N

(

k

)

-y

(

k

)

=

S

p

-

x

(

2

k

)

-x

(

1

k

)

,y

2

,(3)

1

N

k=1

|

k

()

|

(

是指导模型梯度下降从而收敛的指标.对应三个输

出头,CenterNet的损失分为三个部分,分别是中心

点损失、中心偏移损失与尺度损失.

中心点损失如公式(1):

输入图像中标注目标的数量.

整体损失为公式(4):

)

λ

off

λ

size

为超参数,其中,设定值分别为1和0.1.

L

det

=L

k

off

L

off

size

L

size

,(4)

Copyright©博看网. All Rights Reserved.

第 4 期

毛腾跃,等:基于无锚框检测网络的茶叶嫩芽识别方法研究

493

图6 ResNet-50和Hourglass-52整体网络结构

3 结果分析与实验对比

Fig.6 Overall network structure of ResNet-50 and HourGlass-52

表1 计算机硬件配置

Name

RAM

GPU

SSD

CPU

Tab.1 Computer hardware configuration

Information

13G

对模型进行训练.为检验模型的训练效果,对

模型的训练结果进行分析;为检验数据增广操作和

更换骨干操作对模型的影响、了解本文提出的嫩芽

识别方法是否有所进步,设置实验进行对比.

3.1 实验环境及训练设置

本节所有实验的实验环境相同,软件环境的搭

Freeze

Phase

Intel(R)Xeon(R)***********×2

Tesla P100-PCIE-16 GB

73.1G

表2 训练参数配置

建主要使用的是TensorFlow-2.6.0.硬件的具体配置

信息如表1所示.

训练模型使用的学习率调度策略为指数调度

策略,迭代步数为一个Epoch,使用的梯度下降优化

器为Adam优化器.训练共分为冻结训练与解冻训

练两个阶段,两个阶段的训练参数配置如表2所示.

预训练时的参数配置与解冻训练阶段相同.

Tab.2 Training parameter configuration

Batchsize

16

8

Epoch

50

50

Learningrate

1e-3

1e-4

Decayrate

0.94

0.94Unfreeze

由于自建数据集规模较小,在所有实验中,将

训练模型所使用的数据集按9∶1的比例划分为训练

集与测试集,为检测模型是否过拟合,又将训练集

分为简化训练集与验证集,比例为9∶1,通过模型在

Copyright©博看网. All Rights Reserved.

494

中南民族大学学报(自然科学版)

第 42 卷

验证集上的损失评估模型是否过拟合.

3.2 评价标准

茶叶嫩芽直接识别方法的优势是识别高效与实

现简洁,故在对比实验中,模型的评价标准包括精确

率(Precision)、召回率(Recall)、mAP(mean Average

Precision)、模型的识别速率与模型的大小.精确率

指的是模型识别出的所有目标中被正确识别的所

占比重,召回率指模型需要识别的所有目标中被正

确识别出来的所占比重;mAP是针对“召回率越高,

精度越低”的权衡提出的综合反映模型识别性能的

一项评价指标,其计算过程分为两步:先针对模型

要识别的每一个类,将模型对于某类目标处于不同

召回率时的精确度求和,计算这些精度的平均值得

到模型对于该类目标的平均精度(AP),然后计算各

类目标的AP的平均值得到mAP.精确率、召回率和

mAP的计算方式如下:

Precision=

TP

TP+FP

TP

Recall=

TP+FN

-1

Precision

K

i

i=0

(5)

(6)

,(7)

图7 整体损失对比

Fig.7 Overall loss comparison

AP=

,(8)

N

其中,TP是真正类(即预测类别和实际类别都为正

i=1

mAP=

K

Recall=

K-1

N

AP

i

的增加逐渐趋于平缓,故模型都得到收敛且未出现

过拟合的现象.其中模型B和模型C的训练损失都

达到了相近的更低水平,表明这两个模型的训练效

果更好.

3.4 实验对比

类)的数量,FP是假正类(即预测类别为正类,而实

际类别为负类)的数量,FN是假负类(即预测类别为

负类,而实际类别为正类)的数量.在目标检测领

域,预测框与标注框的IoU(Intersection over Union,

预测框与标注框的重叠面积与它们的联合面积的

比值)大于指定值的为正类,小于指定值的为负类.

K

为在Precision-Recall坐标系Recall轴上的插值抽

N

为识别目标的类别数目.样数目,

为了解数据集增广对模型训练效果的影响,设

计了数据集增广对比实验;为了解基于ResNet-50与

基于Hourglass的CenterNet模型的在识别效率和模

型规模上的差异,设计了主干对比实验.将两个实验

汇总到本节来进行统一分析.

mAP的对比结果.在增广后的数据集上进行训练后,

模型B相比模型A无论是在精确度、召回率还是mAP

上都有14个以上的百分点以上的提升,识别效果

更好.

表4为A、B、C三个模型的训练时间、对单张图

片的检测时间和模型大小的对比结果.模型A和模

型B在检测速度方面比模型C快了6倍,在模型大

小方面,它们比另外模型C也小了6倍.可见通过更

换特征提取网络,提高了CenterNet模型的识别效

率,减小了模型的规模.

图8所示分别为原始标注的茶叶嫩芽图像和

如表3所示,为A、B两个模型的精确度、召回率、

3.3 训练结果分析

实验在CenterNet深度网络模型,基于ResNet-50

特征提取网络分别采用原始数据集和增广数据集

进行训练,基于Hourglass特征提取网络采用原始

数据集进行训练,最后得到的整体训练损失对比与

验证损失对比如图7所示.为描述方便,后文将使用

ResNet-50特征提取网络和原始数据集训练得到的

模型、使用ResNet-50特征提取网络和增广数据集

始数据集训练得到的模型分别简称为模型A、B、C.

三次训练的训练损失和验证损失都随着Epoch

训练得到的模型、使用Hourglass特征提取网络和原

Copyright©博看网. All Rights Reserved.

第 4 期

毛腾跃,等:基于无锚框检测网络的茶叶嫩芽识别方法研究

表3 数据集对比

495

CenterNet(B)

CenterNet(C)

CenterNet(A)

ModelFeature extraction network

ResNet-50

ResNet-50

Hourglass

Tab.3 Comparison of data sets

Original dataset

DatasetPrecision/%

58.7

83.1

84.1

Recall/%

71.3

85.4

94.7

mAP/%

72.2

87.7

93.2

Extended dataset

Original data set

表4 特征提取网络对比

CenterNet(B)

CenterNet(C)

CenterNet(A)

ModelFeature extraction network

ResNet-50

ResNet-50

Hourglass

Tab.4 Comparison of feature extraction networks

Original dataset

Original dataset

DatasetTraining time/h

15.0

1.36

6.35

Detection time/ms

21.3

22.6

Model size/MB

125

125

731

Extended dataset

122.2

图8 识别效果对比

Fig.8 Comparison of recognition effects

在A、B两个模型上的识别结果图像.可以看出,模

型B检测嫩芽得到的检测框的偏移较小,识别效果

较佳.

3.5 研究对比

4 结论

本文以探索茶叶嫩芽的直接识别方法为研究目

的,尝试去除传统研究中所使用的低效预处理步骤.

利用无锚框检测网络CenterNet的基于关键点检测思

想与传统方法中先分割、后识别的思想在本质上的相

同点,使用CenterNet进行茶叶嫩芽的直接识别.通过

数据增广操作扩充小样本茶叶嫩芽数据集和使用预

训练方法,避免了模型训练慢和过拟合的问题.对比

了同领域的其他研究成果,得出基于ResNet-50的

CenterNet深度网络模型兼具识别速度与识别效果

的结论,给茶叶嫩芽的智能化采摘提供了一种嫩芽

识别方案.由实验结果可见,该方法的识别效果有

所不足,如对大目标的一叶二芽的检测框的大小有

所偏差,识别的mAP相比同类研究没有达到最好的

水平.后续可以借助丰富数据集、改进模型等方法

来解决.

Detection

time/ms

22.6

81.4

18.7

表5展示了本文使用的方法与文献[7]和文献[9]

的识别结果对比.本文与文献[9]都是使用的直接对

嫩芽进行识别的方法,而文献[7]使用的是先进行

预处理、后进行嫩芽识别的方法.与文献[9]相比,

本文所提出方法的精确率虽然有所下降,但是召回

率提升了6%,mAP提升了5%,整体识别效果更好.

与文献[7]相比,本文所提出方法的精确率、召回率和

mAP都十分接近.本文与文献[9]提出的无预处理

方法的识别速度都比文献[7]提出的有预处理方法

快了接近3倍.可见,本文所提出的茶叶嫩芽识别方

法能够在保持良好识别效果的前提下,以较快的速

度进行茶叶嫩芽识别.

表5 识别结果对比

Tab.5 Comparison of recognition results

Model

Centernet(ResNet-50)

文献[7]

文献[9]

Precision/%Recall/%mAP/%

85.7

83.2

85.1

83.3

85.7

78.9

87.7

87.9

82.2

参考文献

[1] 周智修, 段文华, 吴海燕, 等. 我国名优茶发展现状与

趋势[J]. 茶叶科学, 2013, 33(2): 171-178.

[2] 王文明, 肖宏儒, 宋志禹, 等. 茶叶生产全程机械化技

术研究现状与展望[J]. 中国农机化学报, 2020, 41(5):

Copyright©博看网. All Rights Reserved.

496

226-236.

中南民族大学学报(自然科学版)

第 42 卷

[10] REN S, HE K, GIRSHICK R, et al. Faster R-CNN:

Towards real-time object detection with region proposal

Intelligence, 2017, 39(6): 1137-1149.

networks[J]. Transactions on Ratern Analysis & Machine

[11] 奥雷利安·杰龙. 机器学习实战: 基于Scikit-Learn、

Keras和TensorFlow[M]. 宋能辉, 李娴译. 北京:机械

工业出版社, 2020.

[3] 王子钰, 赵怡巍, 刘振宇. 基于SSD算法的茶叶嫩芽检

测研究[J]. 微处理机, 2020, 41(4): 42-48.

[4] LIU W, ANGUELOV D, ERHAN D, et al. SSD:Single shot

multibox detector[C]//IEEE. European Conference on

Computer Vision. Amsterdam: Springer, 2016: 21-37.

[5] 孙肖肖, 牟少敏, 许永玉, 等. 基于深度学习的复杂背

景下茶叶嫩芽检测算法[J]. 河北大学学报(自然科学

版), 2019, 39(2): 211-216.

[6] REDMON J, DIVVALA S, GIRSHICK R, et al. You

only look once: Unified, real-time object detection[C]//

IEEE, 2016: 779-788.

2021, 40(1): 80-88.

2019, 31(2): 72-78.

1131-1139.

[12] PAN S J, YANG Q, et al. A survey on transfer learning[J].

22(10): 1345-1359.

Transactions on Knowledge an Data Engineering, 2010,

keypoints[J]. International Journal of Computer Vision,

2020, 128(3): 642-656.

points[J]. arXiv preprint arXiv:1904.07850, 2019.

IEEE. Computer Vision and Pattern Recognition. Las Vegas:

[7] 毛腾跃, 张雯娟, 帖军. 基于计算机视觉的茶叶嫩芽

识别方法研究, 中南民族大学学报(自然科学版).

[8] 吕军, 夏华鹍, 方梦瑞, 等. 基于AlexNet的茶叶嫩芽

状态智能识别研究[J]. 黑龙江八一农垦大学学报,

[9] 许高建, 张蕴, 赖小燚. 基于Faster R-CNN深度网络的

茶叶嫩芽图像识别方法[J]. 光电子·激光, 2020, 31(11):

[13] LAW H, DENG J. CornerNet: Detecting objects as paired

[14] ZHOU X, WANG D, KRAHENBUHL P. Objects as

[15] NEWELL A, YANG K, DENG J, et al. Stacked hourglass

networks for human pose estimation[C]//IEEE. European

2016: 483-499.

Conference on Computer Vision. Amsterdam: Springer,

[16] HE K, ZHANG X, REN S, et al. Deep residual learning

Pattern Recognition. Las Vegas: IEEE, 2016: 770-778.

for image recognition[C]//IEEE. Computer Vision and

(责编&校对 姚春娜)

Copyright©博看网. All Rights Reserved.


发布者:admin,转转请注明出处:http://www.yc00.com/num/1712406578a2054026.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信