专利申请类型:发明专利;
地区:湖北-宜昌;
源自:宜昌高价值专利检索信息库;
专利名称:基于超轻量级全卷积神经网络的花卉识别方法
专利类型:发明专利
专利申请号:CN202010476319.7
专利申请(专利权)人:三峡大学
权利人地址:湖北省宜昌市西陵区大学路8号
专利发明(设计)人:徐光柱,朱泽群,尹思璐,雷帮军,石勇涛,陈鹏,夏平
主权利要求:1.基于超轻量级全卷积神经网络的花卉识别方法,其特征在于包括以下步骤:步骤1:提出一种自动化花卉数据有效增广方法,得到筛选后的花卉分割图,组成新的数据集;
所述步骤1中,自动化花卉数据有效增广方法包括以下步骤:
步骤1.1:将彩色图片最终转化为二值图片:
首先将彩色图片灰度化,然后使用高斯滤波处理以减少噪声;接着使用OTSU算法确定灰度化图像的前景背景的阈值,将大于此阈值的像素点值设置为255,小于此值的像素点值设为0,由此完成彩色图片的二值化;
步骤1.2:采用最大连通区域法来标记最大的3个连通区域;一个连通区域是由具有相同值的相邻像素组成像素集合,通过扫描全部像素点,将所有的连通区域标定出来,根据区域的面积属性,获取最大的3个连通域;
步骤1.3:将3个待选的连通域的位置信息提取出来,将此区域里的像素点值设为1,此区域以外的设置为0,生成3个与原图像尺寸一致的掩码矩阵;
步骤1.4:将掩码矩阵与原始图片相叠加得到最终的3个候选分割图;
步骤1.5:训练一个重量级的花卉图像分类神经网络,并进行候选分割图的筛选,通过比较设定的准确度,自动丢弃误分割的花卉图,在对所有网络搜集的图片进行处理后,与常用的数据集合并得到了新的数据图集,完成了Larger_dataset数据集的制作;
步骤2:构建超轻量级的卷积神经网络,利用步骤1中得到的新的数据集,来训练超轻量级的卷积神经网络模型;
所述步骤2中,超轻量级的卷积神经网络模型,在输出层除了会输出N个种类信息外,还输出了2个图像位置约束项,即花朵的中心点坐标(x,y)值,该值是相对于整个图像长宽规格化的;
网络的损失函数为:
其中,N为样本数量;M为类别数量;yic指示变量0或1,如果该类别和样本i的类别相同就是1,否则是0;pic为观测样本i属于类别c的预测概率;ε为中心点坐标的损失值;
其中心点坐标在损失函数中的表达式项为公式(1),其中,lobj定义为若存在花朵该值为1,不存在则为0;(x,y), 分别表示实际中心点坐标与预测中心点坐标值;
计算花朵中心点坐标的损失值ε:
步骤3:利用训练好的超轻量级的卷积神经网络模型,对花卉进行识别。
2.根据权利要求1所述基于超轻量级全卷积神经网络的花卉识别方法,其特征在于:所述步骤2中,构建超轻量级的卷积神经网络共有23层,输入尺寸为224*224,经过4次最大池化后输出尺寸为14*14的特征图;其中,3*3的深度卷积负责滤波作用,1*1的逐点卷积负责通道的转换,在随着网络层数的加深过程中,两种卷积核的数目加倍,尺寸不断缩小,从输入的图像中抽象出高层次的特征。 说明书 : 基于超轻量级全卷积神经网络的花卉识别方法技术领域[0001] 本发明涉及花卉智能识别技术领域,具体涉及一种基于超轻量级全卷积神经网络的花卉识别方法。背景技术[0002] 随着我国人民生活水平的极大提升,中国的花卉消费市场变得越来越繁荣,尤其在2000年后,国内的花卉产业经历了快速发展,生产规模已居世界首位。由于花卉的诸多优良性状,由此激发出的多样化需求也使得其具备了巨大的商业价值。为了获得最大的利用效率,快速准确的花卉品种分类对于这些资源的开发利用有着重大的基础意义。[0003] 在智能识别领域,人们根据花卉的形状颜色等特征,设计了不同的花卉智能识别系统,但是传统方法提取的都是低层或者中层特征,不具有很好的泛化能力及语义含义,于是人们开始采用先进的模式识别、图像处理和深度学习技术来对花卉进行自动识别,设计出各种不同的深度卷积神经网络模型,大大地提高了花卉分类的准确度,如:[0004] 文献:PrasadM,JwalaLakshmammaB,ChandanaAH,etal.Anefficientclassificationofflowerimageswithconvolutionalneuralnetworks[J].InternationalJournalofEngineering&Technology,2018,7(11):384‑91,提出的一种新型深度卷积神经网络,使用四种不同尺寸的卷积核进行特征的提取,在两层全连接层后应用Softmax回归函数进行最后的分类,并结合最大池化与平均池化优势的一种随机池化技术。[0005] 文献:吴迪,侯凌燕,刘秀磊,etal.一种改进的深度神经网络的花卉图像分类[J].河南大学学报(自然科学版),2019,对InceptionV3网络根据花卉分类任务进行了适应性修改,结合在负值具有软饱和特性的Tanh‑ReLu函数与InceptionV3网络,利用迁移学习技术训练出分类效果出众的神经网络。[0006] 文献: M,BudakU,GuoY,etal.Efficientdeepfeaturesselectionsandclassificationforflowerspeciesrecognition[J].Measurement,2019,137(7‑13),采用AlexNet和VGG16的混合模型应用于花卉的物种分类,以带有径向基函数(RBF)核的支持向量机(SVM)作为分类器,将混合模型提取的特征应用于该分类器中进行分类的方法。[0007] 近几年也有许多文献通过修改激活函数、特征融合等方式不断改进这些方法,如:文献:袁培森,黎薇,任守纲,etal.基于卷积神经网络的菊花花型和品种识别[J].农业工程学报,2018,34(5);[0008] 文献:郭子琰,舒心,刘常燕,etal.基于ReLU函数的卷积神经网络的花卉识别算法[J].计算机技术与发展,2018,28(5):154‑7;[0009] 文献:尹红,符祥,曾接贤,etal.选择性卷积特征融合的花卉图像分类[J].中国图象图形学报,2019,24(5):762‑72。[0010] 中国专利“申请号:201910548293.X”也提出一种基于CNN特征融合框架的花卉识别方法,将图片的多种有效特征与识别图片性能较好的CNN进行结合,训练出基于每种特征的识别模型,其由各个简单花卉识别模型组合而成的融合框架,利用花卉的不同特征,提高花卉识别的正确率。[0011] 上述这些方法,为了追求更好的分类效果,网络模型结构变得愈发庞杂,网络层数更加深,虽然相关任务准确率得到了提升,却也带来了不少的问题。第一个是:模型权重的存储问题。深层神经网络中含有大量的权重参数,通过加深网络来提高准确率会增加惊人的参数量,保存模型文件需要开销可观的内存空间。第二个是:应用预测的时间问题。参数量的增加也会导致网络的运算量的增加。在预测时,输入数据经过前向传播需要花费极大的运算资源,这将导致应用的等待时间大大增加。[0012] 也有相关专利提出基于移动端的花卉识别方法,如花卉识别方法及其设备“申请号:201810538860.9”提出一种android系统下花卉识别的方法,通过采集花卉的图像,构建花卉数据库,通过深度卷积神经网络进行特征提取,由特征的欧氏距离来判别花卉,此方法为了适应移动端设备的计算能力,从欧氏距离来进行花卉判别,在准确性上略显不足;[0013] 中国专利:“一种智能终端上的花卉识别方法”“申请号:201410582707.8”,通过对图片进行局部形状特征提取,特征编码,特征多层聚类,全局形状特征提取和全局颜色特征提取,特征融合的方法从图片中提取出与花卉类别相关信息,使用线性支持向量机进行训练,得到支持向量机模型,通过特征提取和使用KD树结构进行快速的特征提取,然后使用支持向量机模型进行分类,此方法采用深度学习的方法提取的特征是有效的,但其分类器没有和特征联合训练,无法充分利用特征发挥优势,其准确率也随之下降,难以达到精准识别的要求。[0014] 由于自然界花卉类内、类间差异大,大规模带标签数据集匮乏,而在弱算力平台下,不足以支持重量级神经网络模型,且有限的数据集同样不适应较大的模型,目前花卉分类存在诸多难点:1)弱算力平台无法支持重量级的神经网络模型,而超轻量级的神经网络存在着准确率低的问题;2)不同角度的花卉,会丢失部分信息,特别是在超轻量级的模型中,特征提取能力较差,造成分类误差严重;3)花卉数据集来源复杂,质量参差不齐,在特征的提取上存在着难度。发明内容[0015] 为解决上述技术问题,本发明提供一种基于超轻量级全卷积神经网络的花卉识别方法,该方法一方面针对数据集的不足,提出了一种自动化的花卉图片数据集增广方法;另一方面针对弱算力平台,特别是移动端应用的开发的需求不断增加,设计适用于边缘计算设备的超轻量级全卷积神经网络来进行花卉图像分类。本发明所提出的超轻量级神经网络、以及花卉数据集的增广方法都能够有效地运行,并通过实验得到了很好的验证。此外,通过实验对比,本发明方法相较于现有的其他方法,在速度与精度上都取得了相当大的性能提升。[0016] 本发明采取的技术方案为:[0017] 基于超轻量级全卷积神经网络的花卉识别方法,首先,设计并实施花卉图像的爬虫程序,获得一个粗略的数据集,然后对收集的数据集做清洗与分割处理,采用OTSU算法将数据集中的彩色图像二值化,通过最大连通区域法来标记最大的3个连通区域,提取出连通区域的位置信息,生成矩阵掩码,并叠加回原始图片获得花卉的分割图;[0018] 然后,采用迁移学习的方法来训练重量级的花卉分类神经网络,对花卉的分割图进行筛选,将保留下来的花卉分割图构建成新的数据集;[0019] 最后,构建适用于弱算力平台的超轻量级的卷积神经网络,将新构建的数据集输入到其中进行训练,实现花卉识别分类,最后将其应用到边缘计算设备上。[0020] 基于超轻量级全卷积神经网络的花卉识别方法,包括以下步骤:[0021] 步骤1:提出一种自动化花卉数据有效增广方法,得到筛选后的花卉分割图,组成新的数据集Larger_dataset;[0022] 步骤2:构建超轻量级的卷积神经网络,利用步骤1中得到的新的数据集,来训练超轻量级的卷积神经网络模型;[0023] 步骤3:利用训练好的超轻量级的卷积神经网络模型,对花卉进行识别。[0024] 所述步骤1中,自动化花卉数据有效增广方法,包括以下步骤:[0025] 步骤1.1:将彩色图片最终转化为二值图片:[0026] 首先将彩色图片灰度化,然后使用高斯滤波处理以减少噪声;接着使用OTSU算法确定灰度化图像的前景背景的阈值,将大于此阈值的像素点值设置为255,小于此值的像素点值设为0,由此完成彩色图片的二值化;[0027] 步骤1.2:采用最大连通区域法来标记最大的3个连通区域。一个连通区域是由具有相同值的相邻像素组成像素集合,通过扫描全部像素点,将所有的连通区域标定出来,根据区域的面积属性,获取最大的3个连通域。需根据实际要求设定面积的最小阈值。[0028] 步骤1.3:将3个待选的连通域的位置信息提取出来,将此区域里的像素点值设为1,此区域以外的设置为0,生成3个与原图像尺寸一致的掩码矩阵。[0029] 步骤1.4:将掩码矩阵与原始图片相叠加得到最终的3个候选分割图;[0030] 步骤1.5:训练一个重量级的花卉图像分类神经网络,并进行候选分割图的筛选,通过比较设定的准确度,自动丢弃误分割的花卉图,在对所有网络搜集的图片进行处理后,与常用的数据集合并得到了新的数据图集,完成了Larger_dataset数据集的制作。[0031] 所述步骤2中,构建超轻量级的卷积神经网络共有23层,输入尺寸为224*224,经过4次最大池化后输出尺寸为14*14的特征图;[0032] 其中,3*3的深度卷积负责滤波作用,1*1的逐点卷积负责通道的转换,在随着网络层数的加深过程中,两种卷积核的数目加倍,尺寸不断缩小,从输入的图像中抽象出高层次的特征。[0033] 所述步骤2中,超轻量级的卷积神经网络模型,在输出层除了会输出N个种类信息外,还输出了2个图像位置约束项,即花朵的中心点坐标(x,y)值,该值是相对于整个图像长宽规格化的;[0034] 网络的损失函数为:[0035][0036] 其中,N为样本数量;M为类别数量;yic指示变量0或1,如果该类别和样本i的类别相同就是1,否则是0;pic为观测样本i属于类别c的预测概率;ε为中心点坐标的损失值。[0037] 其中心点坐标在损失函数中的表达式项为公式(1),其中,lobj定义为若存在花朵该值为1,不存在则为0;(x,y), 分别表示实际中心点坐标与预测中心点坐标值;[0038] 计算花朵中心点坐标的损失值ε:[0039][0040] 本发明一种基于超轻量级全卷积神经网络的花卉识别方法,技术效果如下:[0041] 1:本发明中,首先针对当前花卉数据集来源复杂、质量参差不齐以及种类不足影响模型性能的情况,设计了一种有效的花卉数据集增广方法,该方法通过最大连通区域法进行花卉图像分割,重量级网络对分割图进行筛选来增强花卉数据集,通过实验验证,采用增强后的数据集进行训练能大大提升神经网络模型的检测精度。[0042] 2:然后本发明构建了一种超轻量级网络,用于在移动端等弱算力平台实时进行花卉的分类检测,该模型采用1*1卷积与3*3卷积的交替重复的结构,且在输出层除了会输出N个种类信息外,还额外输出了2个图像位置约束项,即花朵的中心点坐标,使得训练的滤波器更关注花朵自身区域,增强了花卉特征的提取能力。[0043] 3:本发明超轻量级网络模型可以在保证模型准确率的前提下有效的减少参数量与计算量,由于其快速高效的优点,可广泛应用于各种计算能力有限的移动设备中。[0044] 4:本发明所提出的超轻量级神经网络,以及花卉数据集的增广方法,都能够有效地运行,并通过实验得到了很好的验证。此外,通过实验对比,本发明方法相较于现有的其他方法,在速度与精度上都取得了相当大的性能提升。附图说明[0045] 图1为抓取花卉图像具体流程图。[0046] 图2(a)为爬虫程序获取的非花卉图片;[0047] 图2(b)为爬虫程序获取的目标难以辨别图片;[0048] 图2(c)为爬虫程序获取的错误的目标图片(非玫瑰)。[0049] 图3为存在多个花卉主体的图例。[0050] 图4为花卉的分割与识别流程图。[0051] 图5(a)为图片二值化之前的图;[0052] 图5(b)为图片的二值化后结果图。[0053] 图6为掩码矩阵图。[0054] 图7(a)为初步分割结果图一;[0055] 图7(b)为初步分割结果图二;[0056] 图7(c)为初步分割结果图三。[0057] 图8为两个数据集的花卉图片数量分布图。[0058] 图9为超轻量级网络模型结构图。[0059] 图10为两种网络在增强数据集上的训练损失走势图。[0060] 图11为多种方法在Oxford102数据集分类准确率对比图。具体实施方式[0061] 移动化的数字生活越来越成为一种主流生活方式,重量级神经网络的缺陷使得其难以应用到AI边缘计算设备等弱算力平台。而简化的网络与方法能够实时地在移动端等弱算力平台应用,但是其准确率往往又达不到要求。为了解决这个矛盾,研究者们通常使用模型压缩的方法,即在已训练好的模型上进行参数的修剪或对其数据类型进行变换,进而使得网络权重参数的存储变得更加紧实,从而解决内存问题与预测速度问题。相比于在原模型权重上直接进行处理,轻量化模型的优势主要在于构建出更加高效的卷积网络计算方式,从而在减少网络参数的同时还能兼顾好网络性能。同时,对于轻量化模型,数据集的质量也是决定其性能的关键因素,种类多样、代表性强且数目足够的数据集能够大幅度提升模型的性能。[0062] 基于超轻量级全卷积神经网络的花卉识别方法,首先,对收集的数据集做清洗与分割处理,采用OTSU算法将数据集中的彩色图像二值化,通过最大连通区域法来标记最大的3个连通区域,提取出连通区域的位置信息,生成矩阵掩码,并叠加回原始图片获得花卉的分割图;然后,采用迁移学习的方法来训练重量级的花卉分类神经网络,对花卉的分割图进行筛选,将保留下来的花卉分割图构建成新的数据集;最后,构建适用于弱算力平台的超轻量级的卷积神经网络,将新构建的数据集输入到其中进行训练,实现花卉识别分类,最后将其应用到边缘计算设备上。[0063] 基于超轻量级全卷积神经网络的花卉识别方法,包括以下步骤:[0064] 步骤1:提出一种自动化花卉数据有效增广方法,通过如图4所示的流程得到筛选后的花卉分割图,组成新的数据集Larger_dataset;[0065] 步骤2:构建超轻量级的卷积神经网络,利用步骤1中得到的新的数据集,来训练超轻量级的卷积神经网络模型;[0066] 步骤3:利用训练好的超轻量级的卷积神经网络模型,对花卉进行识别。[0067] 每一步的详细内容如下:[0068] 步骤1:深度学习技术的兴起与发展是建立在数据之上的,优质的目标任务数据集有益于通过算法准确地提取出有效的特征,为获得性能优异的网络模型打下坚实的基础,而如今常用的Oxfor102数据集仅包含102类花卉的8189张图片,其质量和数目都不足以支持弱算力平台下的超轻量级神经网络模型。[0069] 为了获取更好的数据集,从Google搜索引擎上下载了与Oxford102数据集上种类相应的102种类花卉图片52753张,并随后做了清洗处理,首先用户制定抓取图片的规则,将其输入到爬虫程序中,程序开始向Google搜索引擎请求查询页,对于返回的网页,其将会解析出所有出现在该网页的图片链接,与此同时也会获取下一个搜索页为下一轮抓取做准备。对于解析出的下载链接还应根据用户的给定规范进行筛选,将符合要求的链接地址保存下来,最终根据这些地址把文件下载到本地磁盘中。抓取具体流程如图1所示。[0070] 由于爬虫仅根据所给关键字来进行图片的下载,因此会出现许多脏数据,如图2(a)、图2(b)、图2(c)所示的爬虫程序获取的玫瑰图片脏数据。并且网络图片来源复杂,质量参差不齐,因此还需要做进一步的图像分割处理。除了以上的脏数据外,不少的图片还存在多个花卉主体同时存在的现实。如图3所示。[0071] 针对以上存在的问题,本发明提出一种基于重量级神经网络模型的自动化花卉数据有效增广方法。首先提取图片中最大联通区域候选域,然后使用预训练的神经网络模型进行花卉图的预测筛选,得到最终的分割图,并整合成新的数据集。[0072] 花卉的数据增广分为五个步骤,流程如图4所示:[0073] 第一步:是将彩色图片最终转化为二值图片,其主要方法是:首先将彩色图片灰度化,然后使用高斯滤波处理以减少噪声;接着使用OTSU算法确定灰度化图像的前景背景的阈值,将大于此阈值的像素点值设置为255,小于此值的像素点值设为0,由此完成彩色图片的二值化。选定一张背景复杂的花卉图为例,二值化的处理后的对比图如图5(a)、图5(b)所示。[0074] 其中,OTSU算法在OtsuN.Athresholdselectionmethodfromgray‑levelhistograms[J].IEEEtransactionsonsystems,man,andcybernetics,1979,9(1):62‑6.文献中有记载。OTSU算法又叫“大津算法”或“最大类间方差法”。它被认为是图像分割中阈值选取的最佳算法,计算简单,不受图像亮度和对比度的影响,因此在数字图像处理上得到了广泛的应用。本发明这里也选用这种较为可靠的二值分割算法。[0075] 第二步:采用最大连通区域法来标记最大的3个连通区域。一个连通区域是由具有相同值的相邻像素组成像素集合,本发明通过扫描全部像素点,将所有的连通区域标定出来。根据区域的面积属性,获取最大的3个连通域。[0076] 第三步:将3个待选的连通域的位置信息提取出来,将此区域里的像素点值设为1,此区域以外的设置为0,生成3个与原图像尺寸一致的掩码矩阵。本实施例中掩码矩阵图如图6所示。[0077] 第四步:将掩码矩阵与原始图片相叠加得到最终的3个候选分割图。如图7(a)、图7(b)、图7(c)所示。从图7(a)~图7(c)可以看到,分割结果图7(c)不是花卉图片,应该丢弃。[0078] 第五步:训练一个重量级的花卉图像分类神经网络并进行候选分割图的筛选。重量级网络虽然对设备的计算能力需求较高,但是其性能也相应较好,此处用来筛选分割图的重量级神经网络可选用目前性能较优异的,如VGG、ResNet152、darknet53等模型,本发明中选择Darknet53网络模型。将候选分割图输入到训练完成的重量级神经网络中进行预测筛选。通过比较设定的准确度,自动丢弃误分割的花卉图。在对所有52753张网络搜集的图片进行处理后,与Oxford102合并得到了新的数据图集总计20554张,完成了Larger_dataset数据集的制作。[0079] 以上所描述的结合预训练的神经网络自动筛选出合格的花卉图片的方法,避免了大量图片数据由人工筛选工作量大的弊端,大大减少了工作量。[0080] 最终搜集整理得到的Larger_dataset数据集较之Oxford102数据集有很大的增强。对于包含的102种花卉,基本上每种花卉的数据量都扩充了2至4倍。其中,最少的pinkprimrose图片由40张增加到了100张,最多的petunia由258张增加到了644张。两个数据集的图片分布如图8所示。[0081] 步骤2:本发明针对计算能力较差的弱算力平台,研究并构建一种超轻量级网络模型,并将步骤1中整理得到的Larger_dataset数据集输入其中进行训练,最后将其应用到边缘计算设备上花卉的分类识别中,其性能有着良好的表现。所设计的超轻量级网络模型总共有23层,其网络结构如图9所示,输入尺寸为224*224,经过4次最大池化后输出尺寸为14*14的特征图,其具体网络结构如图9所示。[0082] 在该模型中1*1卷积与3*3卷积的交替重复的结构借鉴于MobileNet网络中的深度可分解卷积结构,在MobileNet网络结构的论文中提到,其提出的深度可分解卷积结构相比与标准卷积,可以在保证模型准确率的前提下有效的减少参数量与计算量。其中3*3的深度卷积负责滤波作用,1*1的逐点卷积负责通道的转换,在随着网络层数的加深过程中,两种卷积核的数目加倍,尺寸不断缩小,从输入的图像中抽象出高层次的特征。此超轻量级网络模型由于其快速高效的优点,可广泛应用于各种计算能力有限的移动设备中。[0083] 如图9,本模型在输出层除了会输出Classes_number个种类信息外,还额外输出了2个图像位置约束项,即花朵的中心点坐标(x,y)值,该值是相对于整个图像长宽规格化的。这个约束项的使用,使得训练的滤波器更关注花朵自身区域,增强了花卉特征的提取能力。[0084] 网络的损失函数为:[0085][0086] 其中,N为样本数量;M为类别数量;yic指示变量(0或1),如果该类别和样本i的类别相同就是1,否则是0;pic为观测样本i属于类别c的预测概率;ε为中心点坐标的损失值。[0087] 其中心点坐标在损失函数中的表达式项为公式(1),其中,lobj定义为若存在花朵该值为1,不存在则为0;(x,y), 分别表示实际中心点坐标与预测中心点坐标值。[0088] 计算花朵中心点坐标的损失值ε:[0089][0090] 在Larger_dataset数据集上,对超轻量级网络模型进行训练,训练参数见表1。[0091] 表1训练参数设定值表[0092][0093] 训练后得到训练损失图如图10所示,从图10中可以看到,当迭代至25000次时,平均损失率降低最低点。[0094] 与此同时,本发明也对处理前的Oxford102数据集进行同样的训练,来对比两个数据集训练后的检测结果。经过两种数据集训练后,得到的Top1准确率详情如表2所示。[0095] 表2训练于两种数据集的网络的分类准确率表[0096][0097] 对比发现,使用增强后的数据集可以获得更好的分类正确率,对于超轻量级网络模型提升明显。[0098] 对训练完成的网络在Oxford102花卉数据集上进行对比,结果表示经过本发明方法数据增强后训练的超轻量级网络模型,较之现有的其他模型,在花卉分类上的准确率与检测速度表现良好,如图11所示。基于移动端设备运算能力有限,存储成本高的特点,使用超轻量级网络模型为基础骨干网络的花卉分类应用具有很高的实用前景。[0099] 图11中现有的其他模型的参考文献:[0100] [8]杨国亮,王志元,张雨.一种改进的深度卷积神经网络的精细图像分类[J].江西师范大学学报(自然科学版),2017,41(05):476‑83。[0101] [9] M,BudakU,GuoY,etal.Efficientdeepfeaturesselectionsandclassificationforflowerspeciesrecognition[J].Measurement,2019,137(7‑13)。[0102] [10]GeW,YuY.Borrowingtreasuresfromthewealthy:Deeptransferlearningthroughselectivejointfine‑tuning;proceedingsoftheProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition,F,2017[C].[0103] [11]HiaryH,SaadehH,SaadehM,etal.Flowerclassificationusingdeepconvolutionalneuralnetworks[J].IETComputerVision,2018,12(6):855‑62.[0104] [12]PrasadM,JwalaLakshmammaB,ChandanaAH,etal.Anefficientclassificationofflowerimageswithconvolutionalneuralnetworks[J].InternationalJournalofEngineering&Technology,2018,7(11):384‑91。
专利地区:湖北
专利申请日期:2020-05-29
专利公开日期:2024-02-23
专利公告号:CN111652308B
以上信息来自国家知识产权局,如信息有误请联系我方更正!
相关知识
基于卷积神经网络和集成学习的材质识别和分割方法研究
基于卷积神经网络的花卉识别技术 Flower Recognition Based on Convolutional Neural Networks
卷积神经网络的算法范文
深度学习之基于Tensorflow卷积神经网络花卉识别系统
基于深度卷积神经网络的植物病虫害识别
基于深度卷积神经网络的移动端花卉识别系统
应用卷积神经网络识别花卉及其病症
基于卷积神经网络的菊花花型和品种识别
软件杯 深度学习卷积神经网络的花卉识别
基于深度学习的植物病虫害识别方法与流程
网址: 基于超轻量级全卷积神经网络的花卉识别方法 https://m.huajiangbk.com/newsview249537.html
上一篇: 干货实践 |
下一篇: 基于卷积神经网络的花卉识别技术 |