首页> 中国专利> 基于半监督深度学习算法的钢铁表面缺陷识别方法

基于半监督深度学习算法的钢铁表面缺陷识别方法

摘要

本发明涉及图像分类识别技术领域,具体涉及基于半监督深度学习算法的钢铁表面缺陷识别方法,包括以下步骤:A)获取钢铁表面图像,获得初始图像样本数据;B)对初始图像样本数据按预设比例分为训练数据集和验证数据集,从训练数据集中选取20%进行人工打标,作为有标签样本集,其余作为无标签样本集;C)将步骤B)中的训练数据集输入模型分类器进行迭代训练,每迭代N步使用验证样本集中的样本进行验证,直到达到预设阈值;D)将新的钢铁表面图像输入模型分类器,获得钢铁表面图像的缺陷识别结果。本发明的实质性效果是:使神经网络模型能够适应具无标签的样本数据,大幅降低分类器需要的有标签样本数据,降低了分类器训练的成本。

著录项

  • 公开/公告号CN112164040A

    专利类型发明专利

  • 公开/公告日2021-01-01

    原文格式PDF

  • 申请/专利权人 杭州电子科技大学;

    申请/专利号CN202010982319.4

  • 发明设计人 王洪成;郑小青;孔亚广;郑松;

    申请日2020-09-17

  • 分类号G06T7/00(20170101);G06K9/62(20060101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构33109 杭州杭诚专利事务所有限公司;

  • 代理人尉伟敏

  • 地址 310018 浙江省杭州市江干区下沙高教园区

  • 入库时间 2023-06-19 09:24:30

说明书

技术领域

本发明涉及图像分类识别技术领域,具体涉及基于半监督深度学习算法的钢铁表面缺陷识别方法。

背景技术

基于深度学习的钢铁表面缺陷自动识别是钢铁质检中的研究热点之一,但目前的深度学习质检方法大多集中在需要大规模标记样本的监督学习算法上。而在一些实际的案例中,很难为监督学习算法模型收集和标记足够多的数据样本,因此影响了深度学习在钢铁表面质检领域的应用和发展。如中国专利CN109242825A,公开日2019年1月18日,一种基于深度学习技术的钢铁表面缺陷识别方法和装置,方法包括:根据钢铁生产线的类型,收集相应的钢铁表面缺陷图片;根据标注平台的标注流程对缺陷进行标注,生成训练样本集和校验样本集;根据钢铁表面缺陷的种类和特征,设计神经网络模型;根据训练样本集和神经网络的训练流程,训练神经网络模型;根据校验样本集和神经网络模型的评估方法,评估神经网络模型的各项指标,并优化神经网络模型;根据设备性能和神经网络模型大小,分布式地进行神经网络模型的部署和应用。其技术方案即采用了全标注的样本进行分类模型的训练,效率较低。而半监督深度学习利用有标记样本和无标记样本进行模型训练,可以很好地克服这一很难获取大量标记样本的问题。因此,需要研发使用采用半监督学习的的分类模型构建技术。

发明内容

本发明要解决的技术问题是:目前钢铁表面缺陷机器识别中标注样本数据不足导致缺陷识别不准确的计算问题。提出了一种基于半监督深度学习算法的钢铁表面缺陷识别方法,本方法能够减少分类模型训练所需要的标注样本数量,充分利用了无标注的样本数据,降低了分类模型建立的难度。

为解决上述技术问题,本发明所采取的技术方案为:基于半监督深度学习算法的钢铁表面缺陷识别方法,包括以下步骤:A)获取钢铁表面图像,获得初始图像样本数据;B)对初始图像样本数据按预设比例分为训练数据集和验证数据集,将训练数据集进行翻转和剪切增强,从训练数据集中选取20%进行人工打标,作为有标签样本集,其余作为无标签样本集,为验证数据集添加标签;C)将步骤B)中的训练数据集输入模型分类器进行迭代训练,每迭代N步使用验证样本集中的样本进行验证,记录模型分类器的正确率,直到正确率达到预设阈值;D)将新的钢铁表面图像输入到步骤C)训练的模型分类器,获得钢铁表面图像的缺陷识别结果。通过将训练数据集进行翻转和剪切增强提高样本的数量,通过选取20%进行人工打标,降低了样本标注的成本。

作为优选,在步骤A)中,对钢铁表面图像进行预处理:A1)将钢铁表面图像进行归一化处理;A2)将归一化后的钢铁表面图像进行缩放使其较短边像素宽度为预设值m,而后将较长边进行裁剪,使钢铁表面图像转化为m×m×3的格式。进行归一化后的钢铁表面图像更易于分类器处理。其中m优选取值32x32,优选原因为钢铁表面缺陷的像素大小,通常可由32x32像素大小展示,降低分类器所需要处理的无意义数据。

作为优选,步骤C)中,所述模型分类器为神经网络,神经网络进行迭代训练的方法包括:C1)设定阈值η

作为优选,步骤C2)中,获得样本x

作为优选,步骤C2)中,获得样本x

作为优选,步骤C2)中,从有标签样本集取出预设数量的样本输入神经网络后,再从有标签样本或无标签样本集中取样本进行迭代。对于钢铁表面无标记数据我们使用训练信号增强。对于钢铁表面无标记数据,由于神经网络模型开始时,识别精度不高,容易对钢铁表面无标记造成误判,因此在神经网络模型有一定的精度在后,再对钢铁表面无标记进行判断,这样可以让钢铁表面无标记样本得到充分利用,选择出有价值的钢铁表面无标记样本加入训练具有目的性

作为优选,步骤C2)中,当神经网络模型的准确率达到设定阈值后,再从有标签样本或无标签样本集中取样本进行迭代。

作为优选,步骤C1)中,设定阈值

作为优选,步骤C2)中,损失函数L为交叉熵损失函数或平方误差损失函数。交叉熵损失函数或平方误差损失函数能够反映迭代时神经网络模型的参数带来的损失。

本发明的实质性效果是:使神经网络模型能够适应具无标签的样本数据,从而能够使用有标签样本集和无标签样本集结合,对分类器进行训练,获得钢铁表面缺陷的识别结果,大幅降低分类器需要的有标签样本数据,降低了分类器训练的成本,扩大了机器学习在钢铁表面缺陷识识别中的应用范围。

附图说明

图1为实施例一钢铁表面缺陷识别方法流程框图。

具体实施方式

下面通过具体实施例,并结合附图,对本发明的具体实施方式作进一步具体说明。

实施例一:

基于半监督深度学习算法的钢铁表面缺陷识别方法,如图1所示,包括以下步骤:

A)获取钢铁表面图像,获得初始图像样本数据。对钢铁表面图像进行预处理:A1)将钢铁表面图像进行归一化处理;A2)将归一化后的钢铁表面图像进行缩放使其较短边像素宽度为预设值m,而后将较长边进行裁剪,使钢铁表面图像转化为m×m×3的格式。进行归一化后的钢铁表面图像更易于分类器处理。其中m取值32x32,钢铁表面缺陷的像素大小,通常可由32x32像素大小展示,降低分类器所需要处理的无意义数据。

B)对初始图像样本数据按预设比例分为训练数据集和验证数据集,将训练数据集进行翻转和剪切增强,从训练数据集中选取20%进行人工打标,作为有标签样本集,其余作为无标签样本集,为验证数据集添加标签。

C)将步骤B)中的训练数据集输入神经网络进行迭代训练,每迭代N步使用验证样本集中的样本进行验证,记录模型分类器的正确率,直到正确率达到预设阈值。

神经网络进行迭代训练的方法包括:C1)设定阈值η

D)将新的钢铁表面图像输入到步骤C)训练的模型分类器,获得钢铁表面图像的缺陷识别结果。通过将训练数据集进行翻转和剪切增强提高样本的数量,通过选取20%进行人工打标,降低了样本标注的成本。

其中,步骤C2)中,从有标签样本集取出预设数量的样本输入神经网络后,再从有标签样本或无标签样本集中取样本进行迭代。对于钢铁表面无标记数据我们使用训练信号增强。对于钢铁表面无标记数据,由于神经网络模型开始时,识别精度不高,容易对钢铁表面无标记造成误判,因此在神经网络模型有一定的精度在后,再对钢铁表面无标记进行判断,这样可以让钢铁表面无标记样本得到充分利用,选择出有价值的钢铁表面无标记样本加入训练具有目的性。

本实施例的有益技术效果是:使神经网络模型能够适应具无标签的样本数据,从而能够使用有标签样本集和无标签样本集结合,对分类器进行训练,获得钢铁表面缺陷的识别结果,大幅降低分类器需要的有标签样本数据,降低了分类器训练的成本,扩大了机器学习在钢铁表面缺陷识识别中的应用范围。

实施例二:

基于半监督深度学习算法的钢铁表面缺陷识别方法,本实施例中,在步骤C2)中,获得样本x

本实施例中建立的神经网络包括:第一层网络结构是感受野大小是3×3卷积核是16的卷积层,步长为1的卷积层,卷积层的参数量为3×3×3×16+16,即448,输出为16个通道、大小为32×32的特征图。第二层和第三层网络结构是,采用具有两个3x3卷积层的残差结构。第二层网络结构是感受野大小是3×3卷积核是32的卷积层,步长为2的卷积层,输出为32个通道、大小为16×16的特征图。第三层网络结构是感受野大小是3×3卷积核是32的卷积层,步长为1的卷积层,输出为32个通道、大小为16×16的特征图。第四层和第五层网络结构是,采用具有两个3x3卷积层的残差结构。第四层网络结构是感受野大小是3×3卷积核是32的卷积层,步长为1的卷积层,输出为32个通道、大小为16×16的特征图。第五层网络结构是感受野大小是3×3卷积核是32的卷积层,步长为1的卷积层,输出为32个通道、大小为16×16的特征图。第六层和第七层网络结构是,采用具有两个3x3卷积层的残差结构。第六层网络结构是感受野大小是3×3卷积核是64的卷积层,步长为2的卷积层,输出为64个通道、大小为8×8的特征图。第七层网络结构是感受野大小是3×3卷积核是64的卷积层,步长为1的卷积层,输出为64个通道、大小为8×8的特征图。第八层和第九层网络结构是,采用具有两个3x3卷积层的残差结构。第八层网络结构是感受野大小是3×3卷积核是64的卷积层,步长为1的卷积层,输出为64个通道、大小为8×8的特征图。第九层网络结构是感受野大小是3×3卷积核是64的卷积层,步长为1的卷积层,输出为64个通道、大小为8×8的特征图。

第十层和第十一层网络结构是,采用具有两个3x3卷积层的残差结构。第十层网络结构是感受野大小是3×3卷积核是128的卷积层,步长为2的卷积层,输出为128个通道、大小为4×4的特征图。第十一层网络结构是感受野大小是3×3卷积核是128的卷积层,步长为1的卷积层,输出为128个通道、大小为4×4的特征图。

第十二层和第十三层网络结构是,采用具有两个3x3卷积层的残差结构。第十二层网络结构是感受野大小是3×3卷积核是128的卷积层,步长为2的卷积层,输出为128个通道、大小为4×4的特征图。第十三层网络结构是感受野大小是3×3卷积核是128的卷积层,步长为1的卷积层,输出为128个通道、大小为4×4的特征图。

最后是感受野大小是3×3步长为2的最大池化和随机失活是0.1的dropout以及softmax分类层,用于计算输出属于每一类的概率。

相对于实施例一本实施例能够更加充分的利用已有样本数据,进一步降低神经网络训练所需要的样本数量。其余步骤同实施例一。

以上的实施例只是本发明的一种较佳的方案,并非对本发明作任何形式上的限制,在不超出权利要求所记载的技术方案的前提下还有其它的变体及改型。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号