A Real-Time Sorting Robot System for Panax Notoginseng Taproots Equipped with an Improved Deeplabv3+

1.整体处理过程

本研究建立了一种基于图像特征融合的三七主根分类模型。
1.预处理【高斯滤波、二值化和形态学方法】
2.提取40个特征,包括大小和形状特征、HSV和RGB颜色特征以及纹理特征。
3…通过BP神经网络、极限学习机(ELM)和支持向量机(SVM)模型,验证了颜色、纹理和融合特征对三七主根分类的重要性。在三种模型中,支持向量机模型表现最好,对预测集的准确率达到92.037%。
4.然后,利用迭代保留信息变量(IRIV)、变量迭代空间收缩法(VISSA)和逐步回归分析(SRA)对特征进行降维。
在本研究中,采用了三个特征变量进行特征选择,包括迭代和保留信息变量(IRIV)、变量迭代空间收缩法(VISSA)和逐步回归分析(SRA)。IRIV [31]可将所有变量统计分为四类:强敏感变量、弱敏感变量、不敏感变量和干扰变量。然后,保留强敏感变量和弱敏感变量,直至不存在不敏感变量和干扰变量。VISSA [32]基于模型聚类分析(MPA),在每次迭代中逐步优化空间变量,最终选择最优变量组合。该算法通过均方根误差(RMSECV)的交互验证来判断真实的值与预测值之间的误差。SRA [33]通过将变量逐一引入特征方程中,直到回归方程中涉及的所有变量均显著,从而消除不显著变量.

5.最后建立了基于特征选择的传统机器学习支持向量机模型和基于语义切分的深度学习模型。模型大小仅为125 kb,训练时间为3.4 s,在测试集上的准确率达到95.370%,因此选择IRIV-SVM作为三七主根分类模型。经过灰狼优化器优化后的IRIV-GWO-SVM模型在测试集上取得了98.704%的最高分类准确率。

2.传统机器学习处理方案过程

1.本文共采集了1800个样本,训练集与测试集的比例为7:3。因此,随机选取1260个训练集样本(315个不同等级的三七主根),剩余的540个样本(135个不同等级的三七主根)作为测试集。通过BP、ELM、SVM三种网络模型,得到形状和大小(9个特征);形状、大小和纹理(16个特征);形状、大小和颜色(33个特征);并分别分析形状、大小、纹理和颜色(40种类型的特征)。对四种不同情况、不同维度的融合特征进行了比较分析,结果如表2所示。
改进:还是需要增加对应的验证集
为什么需要验证集
在机器学习中,训练模型时需要调节模型的参数来提高模型的性能,比如网络层数,网络节点数,迭代次数,学习率,权重,这些调节都需要在训练的模型上通过验证集输出一个调整信号,来通知我们需要去修改参数。这就是验证集的作用,但随着验证集输出调整信号越多,模型也就对验证集学习的更清楚,最后可能导致模型学习的过细,数据拟合度过高,在验证集上呈现过拟合。这就需要一个未知数据集(测试集)来评估模型的好坏。

验证集的关键在于选择超参数,我们手动调参是为了让模型在验证集上的表现越来越好,如果把测试集作为验证集,调参去拟合测试集,那么准确度一定是100%,就如你考试作弊一样。因此测试集既不参与参数的学习过程,也不参与参数的选择过程,仅仅用于模型评价。
为什么验证集和测试集都需要
因为验证数据集(Validation Set)用来调整模型参数从而选择最优模型,模型本身已经同时知道了输入和输出,所以从验证数据集上得出的误差(Error)会有偏差(Bias)。

但是我们只用测试数据集(Test Set) 去评估模型的表现,并不会去调整优化模型。

在传统的机器学习中,这三者一般的比例为training/validation/test = 50/25/25,更为常见的划分比例是训练集、验证集、测试的比例为6:2:2。 但是有些时候如果模型不需要很多调整只要拟合就可时,或者training本身就是training+validation (比如cross validation)时,也可以training/test =7/3.

但是在深度学习中,由于数据量本身很大,而且训练神经网络需要的数据很多,可以把更多的数据分给training,而相应减少validation和test。

3.对比添加某一特征,和没有添加某特征对比,效果提升,从而证明特征重要。

当以形状、大小和纹理作为特征时,在测试集上,BP神经网络的识别率比未加纹理特征的识别率提高了14.782%;ELM的准确率比无纹理特征的高17.222%;SVM的分类准确率比没有纹理特征的分类准确率高15.222%。因此,质地特征在三七主根分类中具有重要意义。在三种分类模型中,支持向量机在训练集和测试集上的准确率最高。

4.传统机器学习与深度学习模型对比

根据3.3.1节,在==传统的基于特征选择的机器学习模型中,IRIV-SVM模型在训练集上的准确率达到94.048,在测试集上的准确率达到95.370%,均为最高。==根据3.3.2节,在基于语义切分的深度学习模型中,PSPNet实现了77.98%的MPA和88.97%的MIoU,均为最高。与IRIV-SVM相比,PSPNet自动逐层提取图像特征,避免了人工选择特征的问题。但PsPNet的模型规模为0. 65 G,训练时间为9 h,对硬件平台要求较高。IRIV-SVM算法虽然涉及到数据准备和人工特征选择,但其模型大小仅为125 kb,训练时间为3.4s,准确率较高。因此,选择IRIV-SVM作为三七主根的分类模型。

5.IRIV-SVM模型优化

由于SVM的分类精度由c(惩罚因子)和g(核函数参数)决定[40],因此c和g的默认设置可能不会导致最佳性能。因此,通过调整c和g的值可以消除对模型性能的干扰。本文通过五重交叉验证和三种智能优化算法对IRIV-SVM模型进行了优化,即:GWO、GA和PSO。在实验之后,==将三种优化算法的最大迭代次数设置为100,并且将群体大小设置为20。在GWO中,c和g的搜索范围均设置为[0.01,100]。在GA中,c的搜索范围被设置为[0,100],g的搜索范围被设置为[0,1000]。此外,将交叉概率设定为0.6,将突变概率设定为0.03。在PSO中,c的搜索范围被设置为[0.1,100],g的搜索范围被设置为[0.01,1000]。==从图11可以看出,经过100次迭代,三种优化算法都达到了最佳适应度。GWO算法在第19次迭代时收敛到98.704%的最佳适应度;GA算法在第25次迭代时收敛到97.220%的最佳适应度,PSO算法在第44次迭代时收敛到96.67%的最佳适应度。对比分析表明,GWO算法具有最快的收敛速度和最好的适应性。

你可能感兴趣的:(深度学习,机器学习,论文笔记,人工智能,算法)