最近读了Recent advances in image processing techniques for automated leaf pest and disease recognition – A review这篇文献之后,让我对农作物的病虫害识别有了一个更全面、更深入的理解了。下面就让我们走进这篇文献:
快速准确的植物病虫害检测对提高农业生产率是特别重要的,传统上依赖于人类专家来诊断由疾病、害虫、营养缺乏或极端天气引起的植物异常。然而这样是昂贵、费时且不切实际的。为了应对这些挑战,利用图像处理技术进行植物病虫害识别已经成为了一个热门的研究课题。//这篇文章中,总结了用于农作物病虫害识别的图像处理和机器学习技术。//文中显示了10多种神经网络结构在识别准确率、召回率、准确率、特异性、F1-评分、训练时长和存储要求等方面的识别性能。//随后提出了在传统以及移动/嵌入式计算机环境中部署的最合适架构的建议。//还讨论了一些尚未解决的挑战,这些挑战需要解决,以便开发实用的自动植物病害识别系统,用于野外条件。
感染疾病的植物一般会出现明显的标记或者损伤。专业人员一般通过目视检查或对植物样本进行实验室测试来诊断,但是这些方法具有一定的局限性:
对疾病的诊断都是需要专业知识的,一般的农民可能没有具备相应的知识进行诊断;专业诊断人员的训练是耗时且昂贵的;农民和专业人员可能不能正确的识别非本地的病虫害;对于一些具有视觉上相似特征的病虫害需要高水平的专业知识,这种情况下,即使是专业人员也有可能会因为疲劳、照明不足、视力不好而做出错误的诊断。另外,个别专家是一小组疾病的专家;持续监测对于早期疾病检测和防止疾病传播是必要的,这是乏味的、耗时的、昂贵的和低效的;除了实验室设备的高成本以外,实验室测试也是具有破坏性的。因为它们涉及到从野外收集植物样本并将其带到实验室进行分析。此外,将样品运送到实验室可能也会受到检疫限制。IPT(图像处理技术)的优点:
基于作物叶、茎、花和果实的图像,可以快速而准确地识别作物疾病;疾病的严重程度可以通过计算变形或者变色区域相对于整个叶子、果实或者花的大小来估计;跟踪植物的疾病进程,这对于检测感染阶段等细节和识别大多数人类观察者无法辨别的症状至关重要。IPT技术还将帮助研究人员评估实验室正在调查的新作物品种的抗病性特征;通过IPT收集的信息可以快速廉价地传播给偏远地区的其他人;正确的诊断将导致更经济地使用杀虫剂,这将降低生产成本,同时保护环境,提高进入欧盟等监管严格但利润丰厚的市场的机会;加强了与人类专家的联系,可以从偏远地区咨询他们,而不需要推广人员亲自访问每个农场。在作物病虫害检测中使用IPT是一个旨在克服这些限制的活跃研究领域。数码相机和计算硬件的能力和可用性不断提高,加上成本不断降低,这意味着IPT有望在这一领域为人类专业知识提供一种可能的替代方案。
第2.1节表明,早期的作品依赖于经典的图像处理程序和从叶子图像中“手工制作”的特征提取。然后使用这些特征来训练浅层分类器算法,如支持向量机(SVM)、主成分分析(PCA)、最大似然分类(MLC)、最近邻(KNN)、朴素贝叶斯(NB)、决策树(DT)、随机森林(RF)和人工神经网络(ANN)。
最近的工作集中在深度学习卷积神经网络(CNN)架构的开发,以自动执行特征提取和图像分类。这一趋势是由三个主要因素促成的;更大数据集的可用性、多核图形处理单元(GPU)适应深度神经网络的训练以及支持软件库的开发,如英伟达公司的计算统一设备架构(CUDA)。第2.2节讨论了基于深度学习的疾病识别技术。
叶部疾病自动识别的早期工作遵循下图所示的一般工作流程:
下表简要概述了利用手工特征提取和浅层分类器进行叶部病害自动识别的最新研究工作。它总结了预处理技术、使用的特征和分类器以及在各自研究中开发的算法的性能。
ArticleCropDatasetPre-processing techniquesFeatures usedClassifierPerformance[7]Wheat3500 Field imagesColour constancy normalization,automatic segmentation SLIC and manual cropping of the region of interest (RoI) using the tactile screen of the mobile device and Chan-Vese algorithm,RGB to Lab* and HSI conversionColour,TextureRF,NBAuc:0.82 Acc:0.78 Sensitivity:0.81 Specificity:0.75[13]Potato300 Lab imagesRGB to Lab* conversion,thresholding to remove background and healthy parts of the leavesColour,TextureMulticlass SVMAccuracy: 0.937 Precision: 0.95 Recall: 0.95 F1 score: 0.95[19]Grapes,Wheat185 Field imagesResizing, cropping, median filtering,RGB to Lab* conversion,segmentation using K-means clustering, hole filling using morphological operationsColour,Shape,TextureBP(N)BP(N):Wheat acc: 100% Grapes acc: 100% PCA + BP(N):Wheat acc: 100% Grapes acc: 97.14%[21]Alfalfa899 Lab imagesResizing, RGB to grayscale, Lab* and HSV conversion, segmentation using K-means, Fuzzy C-means and K-median clusteringColour,Shape,TextureSVM,NB,LDA,Logistic regression analysis and regression tree.PCA used for feature dimension reductionSVM:97.64% training acc,94.74% testing acc,PCA/NB:80% acc[25]Potato150 Field imagesRGB to grayscale conversion,Histogram equalization,segmentation using K-means clusteringTextureSVM with CS optimizationSVM with CS:98.5% acc,basic SVM:72% acc[30]未指明284 Lab imagesResizing, median filtering, RGB to Lab* conversion,segmentation using K-means clusteringColour,Shape,TextureTwo serially connected SVM classifiers87.8% acc[58]Grapes137 Field imagesCropping, resizing, Gaussian filtering, RGB to Lab* and HSV conversion, segmentation using K-means clusteringColour,TextureSVM88.89% acc(93.33% - downy), 83.33% powdery mildew)[36]Grapes137 Field imagesCropping, resizing, Gaussian filtering, RGB to Lab* and HSV conversion, segmentation using K-means clusteringColour,TextureFused SVM + ANN classifiers100% acc[55]Betel20 scanned imagesResizing, RGB to HSV conversion,Otsu segmentation on H channel——100% precision 83.33% recall[61][62]Banana,Beans,Lemon,Rose106 Lab and field imagesImage cropping, smoothing filtering,RGB to HSI conversion,segmentation using K-means clustering compared to using GA for separation of healthy and diseased tissueColour,TextureGA + SVM Compared to:GA + MDC、K-means + MDC86.54% acc(K-means + MDC), 93.63% acc(GA + MDC), 95.71% acc(GA + SVM)[63]Tomato383 Field imagesSegmentation for background removal using Otsu thresholdingColour,Shape,TextureDT97.3% acc[64]Tomato3535 Lab images(PlantVillage dataset)Segmentation by colour thresholding, hole filling for mask refinementTexture (SIFTwithGEV distribution for dimensionality reductionSVM84.7% acc,9000 predictions per second[65]Tomato3535 Lab images(PlantVillage dataset)Segmentation by colour thresholding, hole filling for mask refinementTexture (SIFTwith Johnson SB distribution for dimensionality reduction)SVM85.1% acc,5700 predictions per second[79]Rice650 field imagesResizing to 300x450 pixels, RGB to HSV conversion, threshold S component at 90 to obtain background removal mask, k-means clustering using H component to separate infected regionColour,TextureDNN-JOA validated against DNN, ANN and DAEAccuracy: 94.25% F1-score: 88.74% Precision: 81.24% FDR: 19.64% FPR: 4.42% FNR: 8.94% TPR: 83.7% TNR: 94.04% NPV: 94.14%[83]Sunflower未指明Median filtering, resizing images,segmentation using thresholding and PSO, RGB to HSI conversionColour, TextureMDC98% acc[84]未指明276 (6 from planet natural + 270 from crowdAI.org) field imagesSegmentation using RGA. Compared to GA and K-means clustering—BRBFNN compared to SVM and GASegmentation specificity: RGA: 0.8558 GA: 0.8139 k-means: 0.7914 Segmentation sensitivity: RGA: 0.8705 GA: 0.8244 k-means: 0.802 Classification Vpc:BRBFNN: 0.8621 SVM: 0.8337 GA: 0.8113Classification Vpe:BRBFNN: 0.1118 SVM: 0.1665 GA: 0.1933[85]18 species48 (training), 46 (testing) field imagesSegmentation using GrabCut algorithm, RGB to HSV conversionLBP histogramsOne-class SVM classifiers with nearest support vector strategy for conflict resolution95% test set acc总结:基于上表中的信息,很明显,疾病识别算法的成功取决于许多变量,这些变量取决于系统设计者的判断。这些包括选择要使用的预处理和分割技术,采用哪个颜色空间,提取哪些特征,最后使用哪个学习算法进行分类。当试图使用手工制作的特征提取和浅分类器进行自动植物病害识别时,没有办法先验地判断预处理、特征提取或分类算法的哪个组合将产生最佳结果,从而导致繁琐的试错方法[7,13,19,21,25,30,36,55,58,61–65,79,83–85]。此外,手工制作的特征提取方法只有在有限和受约束的设置下才能成功,当操作条件略有变化时就会失败[14,15,22,59]。也已经注意到,分割技术给出不可靠的结果,特别是在复杂背景存在的情况下,并且损伤没有良好定义的边缘,而是逐渐与叶子的健康部分合并[14,88]。此外,一些用于分类的最佳特征不能用目前可用的任何已知数学工具手工提取。
近年来,卷积神经网络(CNN)在图像识别任务中作为特征提取器和分类器表现突出,如Image-Net挑战。这一想法已经扩展到农业应用,以完成诸如疾病识别、害虫识别、杂草检测、水果和花卉计数以及水果分类和分级等任务。自2015年以来,大多数利用IPTs进行叶部疾病识别的研究都利用了深度学习。LeCun等人将深度学习定义为一种表示学习方法,算法通过一系列优化而不是语义特征来找到表示数据的最佳方式。通过这个学习过程,不需要进行特征工程,因为特征是自动提取的。深度学习将推动农业在疾病诊断、害虫检测、质量管理、营销、自动化、机器人和大数据领域的进步。
训练神经网络需要由数千幅图像组成的大数据集。不幸的是,在植物病害识别领域,这样大而多样的数据集还没有被组装起来供研究人员使用。目前,迁移学习是训练鲁棒的CNN分类器进行植物病害识别的最有效方法。迁移学习使预先训练的卷积神经网络能够通过用较小的数据集重新训练它们来适应,这些数据集的分布不同于以前从头开始训练网络所用的较大数据集。事实上,研究表明,使用在ImageNet数据集上预先训练的CNN模型,然后对它们进行再训练以识别叶部疾病,会产生更好的结果。
下表简要概述了利用深度学习在作物病虫害识别方面进行的最新的研究工作。对每个研究中使用的数据集以及各自提出的算法的性能也提供了简要描述。
ArticleCNN architectureValidationDeep learning frameworkCropDatasetPerformance metric[8]Faster R-CNNDifferent feature extractor CNNs: AlexNet, VGG-16, GoogLeNet, ZFNet, ResNet-50, ResNet-101 and ResNetXt-101CaffeTomato5000 self-acquired field images representing 9 classes of pests and diseasesmAP (0.8306)[9]CaffeNet (AlexNet)noneCaffeApple, pear, grape,cherry, peach4483 Self-acquired field imagesAcc(96.3%)[14]LeNetnoneDeeplearning4jBananaPlantVillage (3700 field images)Acc(0.9861), precision(0.9867),recall (0.986),F1-score (0.9864)[16]GoogLeNetnoneMatlab14 crops1575 self-acquired field imagesAcc(94%)[18]AlexNetMLPCaffeApple1450 Self-acquired lab imagesAcc(96.6%)[20]Custom CNN (AlexNet precursor with cascade inception)SVM, BP ,AlexNet, GoogLeNet, ResNet-20,VGG16CaffeApple1053 self-acquired lab imagesAcc(97.62%)[22]Modified LeNetSIFT + RBF-SVM, background suppressing Gabor energy filtering + RBF-SVM,uLBP + RBF-SVMMatlabOliveSelf-acquired lab imagesAccuracy (98.6%), Matthew’s correlation coefficient(0.9798),F1-score (0.9689),Precision (0.9882),Recall (0.9718)[26]AlexNet, GoogLeNetSVM, Random ForestDIGITSTomatoPlantVillageAcc(99.185%), Macro precision (98.529%),Macro recall (98.532%), Macro F score (98.518%)[27]AlexNet, DenseNet169,Inceptionv3, ResNet34,SqueezeNet, VGG13nonepyTorch14 crops, 26 diseasesPlantVillageAcc(0.9976)[28][29]Custom CNNnoneCaffeCucumberSelf-acquired field images(7320 good condition images& 7520 bad condition images)Acc(82.3%), sensitivity (79.9%), specificity (92.6%)[31]AlexNet, GoogLeNetnoneCaffe14 crops, 26 diseasesPlantVillageF1-score (0.9934),Precision (0.9935),Recall (0.9935),Acc(0.9935)[33]Custom ensemble CNNnoneKeras on TheanoMaize1796 self acquired field images (1028 infected with NLB and 768 healthy)Acc(0.967)[35]Faster R-CNN (modified)Faster R-CNN (unmodified)MatlabSugar beet155 self-acquired images (38healthy, 20 mild, 35 severe,62 mixed mild and severe infection)Sensitivity (95.48%),Specificity (95.48%),Acc(95.48%)[69]MobileNetsnoneCaffeTomatoPlantVillageAcc(90.3%)[70]Inceptionv3, ResNet-50,VGG19, XceptionTransfer learning (TF),Feature tuning 25, 50, 75,100%, No TFKerasSoybean300 high resolution field images divided into 3000 superpixel imagesAccuracy (99.04%),Learning error (0.049)[68]DCGAN, ProGAN and StyleGAN for generation of synthetic training images Custom CNN – PDNet withYolo/AlexNet detector and 32 layer residual classifier networkAlexNet, Vgg19, Inceptionv3,DenseNet201, ResNet152Not stated12 crop species, 42 diseases18,334 PlantVillage lab images + 79,265 self-acquired field images (Plant disease dataset)Detection mAP (0.9165) Recognition acc(0.9367)[67]Faster R-CNN with VGG16 feature extractornoneCaffeTomato8927 self-acquired images representing 9 anomalies and one class for backgroundmAP (96%)[37]GPMNet – (GoogLeNet)noneMatlabGrape14,180 self-acquired lab sub-imagesAcc(94.3%),AuC (0.984)[52]INAR-SSDFaster R-CNN, SSD, R-SSDCaffeApple2029 lab and field imagesmAP (78.8%)Detection speed (23.13 FPS)[53]AlexNetnoneNot statedRice227 self-acquired images(both pest and disease)Acc(91.23%)[54]Modified Cifar10Basic Cifar10 and GoogLeNet CNNsCaffeMaize (8 diseases + healthy)500 imagesAcc(98.9%)[56]Custom CNNVGG16, VGG19, Inceptionv3,ResNet-50Keras on TheanoApplePlantVillage (healthy & black rot images)Acc(90.4%)[57]Custom CNNnoneNot statedSoybeanPlantVillageAcc(99.21%),Recall(0.99),Precision (0.99),F1-Score (0.99)[71]AlexNet, SqueezeNetnoneCaffe on Nvidia JetsonTomatoPlantvillageAcc(0.943)[72]Custom CNNBP , SVM, PSOMatlabRice500 self-acquired field images representing 10 rice diseasesAcc(95%),Missing report rate (0),False report rate (0)[73]Modified Inceptionv3Inceptionv3Keras on TensorFlowTomatoPlantVillageAcc(0.971)[74]CaffeNet up to fc layers + hand crafted features + SVM classifierHand crafted + SVM, CNN,fc6/7 + SVMCaffeTrees – 57 speciesPlantNet, Flavia and LeafSnap + self-acquired imagesAcc(99.68%)[88]Custom 3 channel CNNImage processing technology(IPT), Global-Local Singular Value Decomposition(GLSVD), SVM, Sparse Representation Based Classification (SRC)MatlabTomato, cucumberPlantVillage (tomato), 500self-acquired images(cucumber)Accuracy (94.15% for cucumber and 91.16% for tomato)[89]AlexNet, ResNet-50, ResNet-101SVM, BPCaffePests550 self-acquired field images (10 species each having 55 images)Acc(98.67%)[106]VGG16, AlexNetnoneMatlabTomatoPlantVillage (6 tomato diseases+ healthy)Acc(96.19%)[120]Modified ResNet-50Shallow classifiers in [7], Re-sNet-50 with fully convolutional dense layerTensorFlowWheat8178 self-acquired images(3338 Rust, 2744 Septoria,1568 Tan Spot, 1116 healthy)AuC (0.97),Sensitivity (0.91), Specificity(0.95),Balanced acc(0.93)[107]Modified CIFAR10-quick CNNLeNet-5, AlexNet, VGG16, BP,Bayesian, SVM, KNN classifiersMatlabTea144 self-acquired images (36 images each of healthy, tea leaf blight, tea bud blight, tea red scab)Accuracy (92.5%),Loss (0.002)[123]AlexNet, VGG16Fine tuning, training from scratch, CNN feature extractors + SVM/LDA, CNN feature extractors + RNNNot stated14 crop species, 87 tree species obtained from 3 public datasetsPlantVillage (54,306 images),Flavia (1907 images),Swedish leaf dataset (1125),UCI leaf dataset (443 images)Acc Flavia –VGG16 + LDA(99.10%),Swedish leaf – VGG16(99.11%),UCI leaf – AlexNet + LDA(96.2%),PlantVillage – VGG16 (99.8%)[124]Custom CNN (MCNN)PSO, SVM, RBFNNTensorFlowMango2200 images (512 healthy mango, 558 infected mango,520 other leaves healthy, 610 other leaves infected)Accuracy (97.13%),Missing report rate (2.87),False report rate (0)通过上表我们可以知道PlantVillage数据集是该领域应用最广泛的数据集。常用的系统性能指标是准确度、精密度、灵敏度/召回、特异性和F1score。在所有将深度学习算法与手工算法进行比较的研究中,深度学习提供了更高的识别精度。Caffe和Matlab是应用最广泛的深度学习框架。Keras、pyTorch、TensorFlow和Theano框架在该领域也受到了一些关注。
还可以得到以下的重要结论(论文中有讲到,在这里把精华提取出来了):
许多作者[22,74]在认识到深度cnn比手工特征提取方法的优越性的同时,仍然试图通过结合这两种特征提取方法来提高分类器的性能。他们表明,在全连接层从CNN获取特征向量结果,并将其与手工制作的特征向量相结合,可以获得更准确的分类器性能。
Cruz等人在[22]中提出了一种利用深度学习与数据融合的方法检测Olive Quick Decline Syndrome (OQDS)的技术。作者对CNN进行了修改,将额外手工制作的顺序统计量、纹理、形状和几何关系特征向量与CNN的全连接层进行连接,如下图所示。有人提出,这将使网络更好地泛化,加速模型的收敛,即使在数据集很小的时候。将深度学习模型的性能与手工技术结合径向基函数支持向量机(RBF-SVM)分类器进行比较。与手工制作的方法相比,CNN在所有场景中都表现出了优越的识别性能,CNN在这些场景中接受了200个或更多的训练。
[74]使用Treelogy叶片数据集,实验了不同的特征提取器分类器组合,如下表所示。从输入图像中提取特征可以是手工提取,也可以是使用改进的AlexNet CNN。通过手工提取15个特征,得到56x1个特征向量。从CNN得到的每个特征向量的大小为4096x1。作者表明,将手工制作的特征向量与第一全连接层(fc6)的特征向量融合,可以获得最高的识别精度。然而,将第二层全连接层(fc7)的特征向量与手工制作的特征向量融合,与单独使用fc7相比,精度较低。
下图表明,番茄在最多的研究中占有重要地位。苹果、葡萄、玉米和大豆也很受这一领域研究人员的欢迎。只有三项研究考虑了对害虫的识别。Fuentes等[8,67]考虑了发生在番茄作物上的害虫,而Cheng等[89]考虑了发生在各种作物上的10种害虫。诸如木薯、咖啡、茶、洋葱、百香果、香蕉、梨、椰子和橄榄等作物分别被考虑在一项研究中。C公司的研究成果也在此基础上展开,他们的研究主要集中在树木/农作物的叶片识别上。然而,到目前为止,利用深度学习技术进行树木病害识别的研究还没有发表。
研究比较了10种深度学习模型的性能:AlexNet, GoogLeNet, VGG16, ResNet-101, DenseNet201 [125], Inceptionv3, InceptionResNetv2 [126], ShuffleNet [127], SqueezeNet和mobilenet利用PlantVillage数据集进行叶病识别任务[78]。[27]和[128]报道了使用该数据集的类似比较研究。然而,与之前的研究相比,本研究考虑了更多的CNN模型和性能指标。
材料和方法
本比较研究使用的数据集包含54305幅叶片图像,代表14种作物和26种疾病。数据集中的所有图像都是在统一背景下的可控条件下捕获的,大小调整为256x256像素,并组织为38类。将数据集中的每个类分为三个子集;训练集、验证集和测试集的比例分别为70%、15%和15%。因此,训练集包含38009张图像,而验证集和测试集各有8147张图像。为了避免偏差,这些集合被用来训练、验证和测试所有10个CNN模型。
实验装置
实验在一台运行在Windows 10上的AMD Ryzen 7 2700 CPU,64GB RAM和Nvidia RTX 2060 GPU的计算机上进行,使用了Matlab2019b中的深度学习工具箱。采用了100%的微调策略来重新训练已经在ImageNet数据集上预先训练过的模型。这意味着预先训练的网络中的任何一层都不会被冻结,因此反向传播算法将能够修改网络中的所有权值和偏差。所有模型使用相同的超参数进行30个epoch的训练,如下表所示。没有进行数据增强。
结果与讨论
所有10个CNN模型的验证精度和交叉熵损失如下图所示。可以看出,所有的模型在第15次训练的时候都进行了收敛,达到了98.5%以上的准确率。DenseNet201、VGG16和ResNet-101等较深的模型比AlexNet和SqueezeNet等较浅的网络获得了最高的精度。与较浅的网络相比,较深的网络通常也会在更少的epochs收敛。
各网络的测试集性能如表6所示。DenseNet201在每个指标上都优于所有其他架构。尽管可学习参数比VGG16少67.7%,但ResNet-101的性能与VGG16相当(见表7)。此外,VGG16的训练成本非常高,训练时间超过129 h,而ResNet-101的训练时间为24.48 h。DenseNet201体系结构中连接的密集特性可能导致了训练时间比Inception-V3长的原因,尽管Inception-V3的参数比DenseNet201有更多的参数。
在较大的CNN模型中,DenseNet201、Inceptionv3和ResNet-101似乎最适合实现基于深度学习的叶部疾病识别系统。DenseNet201具有最佳性能和最少存储需求的优势,但缺点是在三种体系结构中训练时间最长。另一方面,Inceptionv3是三个模型中训练时间最少的,不需要像ResNet-101那样多的内存空间。虽然ResNet-101型号的存储要求是三种型号中最高的,但其精度仅次于DenseNet201。此外,ResNet-101可以在训练DenseNet201所需时间的四分之一内进行训练。[73]和[120]中的研究表明,与原始体系结构相比,改进的Inceptionv3和ResNet体系结构可以分别获得相似或更好的性能。因此,在选择这三种网络时应该仔细考虑,因为每种体系结构都有一些优点,但也有一些局限性。
在计算资源受限的移动和嵌入式应用中,小型CNN架构是理想的。ShuffleNet、SqueezeNet和MobileNets可以考虑部署在这类应用中,因为它们的存储要求低,训练时间短,同时仍然可以实现高精度。特别是,与SqueezeNet和MobileNets相比,ShuffleNet具有更好的性能,同时将存储需求限制在6.3MB。在计算能力严重受限的应用程序中,SqueezeNet是一个有吸引力的选择,因为它的最小存储要求为4.6MB,快速训练时间为2.19h。MobileNets似乎没有提供任何优于ShuffleNet和SqueezeNet的优势。在三种紧凑的体系结构中,MobileNets的存储要求最高,培训时间最长,但与ShuffleNet相比,性能较低。
相关知识
使用光谱技术检测农作物病虫害
农作物病虫害遥感监测关键技术研究进展与展望
农作物病虫害检测关键技术问题,如何破解?
浅谈农作物虫害生物防治技术的推广应用
探讨农作物虫害生物防治技术的推广应用
基于深度学习的农作物病害图像识别技术进展
农作物病虫害防治条例
农作物病虫害绿色防控技术
基于图像的植物病害识别与分类
深度学习之基于YoloV7植物病虫害识别及防治系统
网址: 农作物病虫害识别技术的发展综述 https://m.huajiangbk.com/newsview135005.html
上一篇: 水稻虫害智能预测模型及其应用 |
下一篇: 基于自适应判别深度置信网络的棉花 |