首页> 中国专利> 图像分类模型训练方法及系统、图像分类方法及系统

图像分类模型训练方法及系统、图像分类方法及系统

摘要

本发明公开了一种图像分类模型训练方法及系统、图像分类方法及系统。该图像分类模型训练方法包括:获取预先训练好的图像分类模型以及训练数据集;在图像分类模型的卷积层和全连接层之间加入注意力机制模块,并根据分类标签的类别数量调整全连接层中输出节点的数量,以更新图像分类模型;使用训练数据集训练图像分类模型,以获得目标图像分类模型;其中,在训练过程中冻结全部或部分卷积层的权重参数。本发明将训练好的图像模型在训练数据集上进行迁移学习,使得该模型能够在过滤无关图片的同时准确识别图片类别,获得了相较于直接对整个模型进行训练的方式来说更优的性能。

著录项

  • 公开/公告号CN113222066A

    专利类型发明专利

  • 公开/公告日2021-08-06

    原文格式PDF

  • 申请/专利权人 携程计算机技术(上海)有限公司;

    申请/专利号CN202110608324.3

  • 发明设计人 杨凯;罗超;胡泓;李巍;

    申请日2021-06-01

  • 分类号G06K9/62(20060101);G06K9/46(20060101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构31283 上海弼兴律师事务所;

  • 代理人杨东明;林嵩

  • 地址 200335 上海市长宁区福泉路99号携程网络技术大楼

  • 入库时间 2023-06-19 12:07:15

说明书

技术领域

本发明涉及深度学习技术领域,特别涉及一种图像分类模型训练方法及系统、图像分类方法及系统。

背景技术

随着信息技术的发展,图像信息迎来爆炸式增长。OTA(在线旅行社)的图库在积压了海量图片的情况下,每天仍会新增大量由用户或者商家上传的图片。这些图片杂乱无章,仅凭人工无法对如此大量的数据进行处理,难以进一步利用,因此,需要一种自动化的机制来识别图片的内容并进行分类。

深度学习模型是目前解决图片分类问题的主要手段。利用深度学习模型对图片进行分类,在保证准确率的同时,将大大提升处理效率。现有的基于深度学习的图像分类模型主要针对某一特定目标来进行训练,在攻略图库等开放场景下,无法对包括海量的无关图片的图像数据进行准确高效的识别和标注。

发明内容

本发明要解决的技术问题是为了克服现有技术中图像分类模型无法准确识别包括海量无关图片的图像数据且训练效率较低的缺陷,提供一种图像分类模型训练方法及系统、图像分类方法及系统。

本发明是通过下述技术方案来解决上述技术问题:

本发明提供一种图像分类模型训练方法,所述图像分类模型训练方法包括:

获取预先训练好的图像分类模型以及训练数据集,其中,所述图像分类模型包括残差网络结构,所述残差网络结构包括依次连接的至少一个卷积层和一个全连接层,所述训练数据集包括被预设的分类标签标注的图像数据,所述分类标签包括若干不同的目标标签和一个非目标标签,所述非目标标签与所述目标标签的类别不同;

在所述图像分类模型的卷积层和全连接层之间加入注意力机制模块,并根据所述分类标签的类别数量调整所述全连接层中输出节点的数量,以更新所述图像分类模型;所述注意力机制模块用于对所述卷积层输出的特征图的不同通道和区域进行调整;

使用所述训练数据集训练所述图像分类模型,以获得目标图像分类模型;其中,在训练过程中冻结全部或部分卷积层的权重参数。

较佳地,所述注意力机制模块用于对所述卷积层输出的第一特征图在空间维度上进行压缩,得到所述第一特征图在通道维度上的第一权重,并根据所述第一权重与所述第一特征图计算第二特征图;以及对所述第二特征图在通道维度上进行压缩,得到所述第二特征图在空间维度上的第二权重,并根据所述第二权重与所述第二特征图计算第三特征图,并将所述第三特征图输出至所述全连接层。

较佳地,所述残差网络结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层;

所述在所述图像分类模型的卷积层和全连接层之间加入注意力机制模块的步骤包括在所述第五卷积层后增加一个注意力机制模块。

较佳地,所述使用所述训练数据集训练所述图像分类模型,以获得目标图像分类模型的步骤包括:

将所述训练数据集输入到所述图像分类模型,得到模型输出结果;

根据所述模型输出结果,利用损失函数计算所述图像分类模型的损失;

根据所述损失调整所述图像分类模型中未被冻结的权重参数,直至达到收敛条件。

较佳地,所述根据所述损失调整所述图像分类模型中未被冻结的权重参数的步骤包括:

根据所述模型输出结果和平衡因子,基于第一学习率调整未被冻结的卷积层的权重参数;

根据所述模型输出结果和平衡因子,基于第二学习率调整所述全连接层的权重参数;

其中,所述第一学习率小于所述第二学习率;所述平衡因子为所述训练数据集中各所述分类标签标注的样本数与所述训练数据集的样本总数的比例。

本发明还提供一种图像分类方法,所述图像分类方法包括:

获取待分类图像数据;

将所述待分类图像数据输入到利用如上所述的图像分类模型训练方法得到的目标图像分类模型中,得到所述待分类图像数据的分类结果。

本发明还提供一种图像分类模型训练系统,所述图像分类模型训练系统包括:

模型获取模块,用于获取预先训练好的图像分类模型以及训练数据集,其中,所述图像分类模型包括残差网络结构,所述残差网络结构包括依次连接的至少一个卷积层和一个全连接层,所述训练数据集包括被预设的分类标签标注的图像数据,所述分类标签包括若干不同的目标标签和一个非目标标签,所述非目标标签与所述目标标签的类别不同;

模型更新模块,用于在所述图像分类模型的卷积层和全连接层之间加入注意力机制模块,并根据所述分类标签的类别数量调整所述全连接层中输出节点的数量,以更新所述图像分类模型;所述注意力机制模块用于对所述卷积层输出的特征图的不同通道和区域进行调整;

模型训练模块,用于使用所述训练数据集训练所述图像分类模型,以获得目标图像分类模型;其中,在训练过程中冻结全部或部分卷积层的权重参数。

本发明还提供一种图像分类系统,所述图像分类系统包括:

图像获取模块,用于获取待分类图像数据;

图像分类模块,用于将所述待分类图像数据输入到利用如上所述的图像分类模型训练方法得到的目标图像分类模型中,得到所述待分类图像数据的分类结果。

本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的图像分类模型训练方法或如上所述的图像分类方法。

本发明还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上所述所述的图像分类模型训练方法或如上所述的图像分类方法。

本发明的积极进步效果在于:本发明基于现有深度学习图片分类技术和图片数据,将训练好的图像分类模型加入注意力机制模块后冻结部分卷积层权重参数进行迁移学习,使得最终获得的目标图像分类模型不仅能够在过滤无关图片的同时准确识别场景类别,还能够获得相较于直接对整个图像分类模型进行训练来说更优的性能,有效提高了图片分类模型的识别准确率和训练效率。通过该模型对图片进行筛选与分类,可大幅节约人力成本,并大大提升处理的效率,便于后续选取更契合主题更优质的图片进行展示,提升用户体验。

附图说明

图1为本发明实施例1的图像分类模型训练方法的流程图。

图2为本发明实施例1的注意力机制模块的工作流程图。

图3为本发明实施例1的图像分类模型训练方法的步骤S13的具体实施方式的流程图。

图4为本发明实施例2的图像分类方法的流程图。

图5为本发明实施例3的图像分类模型训练系统的结构框图。

图6为本发明实施例4的图像分类系统的结构框图

图7为本发明实施例5的电子设备的硬件结构示意图。

具体实施方式

下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在的实施例范围之中。

实施例1

本实施例提供一种图片分类模型训练方法,如图1所示,该图片分类模型训练方法包括:

S11、获取预先训练好的图像分类模型以及训练数据集,其中,图像分类模型包括残差网络结构,残差网络结构包括依次连接的至少一个卷积层和一个全连接层,训练数据集包括被预设的分类标签标注的图像数据,分类标签包括若干不同的目标标签和一个非目标标签,非目标标签与目标标签的类别不同;

S12、在图像分类模型的卷积层和全连接层之间加入注意力机制模块,并根据分类标签的类别数量调整全连接层中输出节点的数量,以更新图像分类模型;注意力机制模块用于对卷积层输出的特征图的不同通道和区域进行调整;

S13、使用训练数据集训练图像分类模型,以获得目标图像分类模型;其中,在训练过程中冻结全部或部分卷积层的权重参数。

在具体实施过程中,步骤S11中的获取预先训练好的图像分类模型可以包括但不限于利用开源的PyTorch深度学习框架,对模型的网络结构进行定义。

在本实施例中,对基于在公开场景分类数据集place365(一种大型数据集)上训练好的图片分类模型进行迁移学习。由于该场景分类数据集包含大量的图像数据,通过使用该图像数据集训练后的图像分类模型,其卷积层(即特征提取器)部分的权重参数具备较好的性能,能够更好地对图像的特征进行提取。因此,在本实施例中,仅保留经过该数据集训练的图像分类模型的卷积层的权重参数,并根据目标标签和非目标标签的总和对应地设置全连接层输出节点的数量以更换全连接层。

具体地,残差网络选择wide resnet50,输入图片尺寸限制为224×224,最后全连接层的输出节点数设置为N+1,对应N个目标标签和1个非目标标签。

具体地,可以将目标标签具体设置为“室内”、“室外”、“自然”、“美食”、“近景”和“活动”等场景类别,而非目标标签则可以对应地设置为“其他”非场景类别。基于上述标签体系,分别收集整理每个场景标签的图片数据以及不属于任意一个场景标签定义的“其他”数据,以实现步骤S11中的对训练数据集的构造。其中,图片数据可以来源于多种途径,例如采用爬虫技术进行收集、使用历史积累的相关数据以及使用人工标注的数据等。

本实施例的图片分类模型训练方法基于包括残差网络结构的训练好的图像分类模型进行迁移学习,在该图像分类模型已经具备一定的图像识别能力的基础下,继续针对预期特定目标进行再训练,不但使得训练所需的时间大幅减少,同时在该图像分类模型中引入了注意力机制模块,进一步地提高了图像识别的准确率。

作为一种优选的实施方式,图像分类模型的残差网络结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层;

在该图像分类模型的卷积层和全连接层之间加入注意力机制模块的步骤包括在第五卷积层后增加一个注意力机制模块。

上述注意力机制模块优选用于对卷积层输出的第一特征图在空间维度上进行压缩,得到第一特征图在通道维度上的第一权重,并根据第一权重与第一特征图计算第二特征图;以及对第二特征图在通道维度上进行压缩,得到第二特征图在空间维度上的第二权重,并根据第二权重与第二特征图计算第三特征图,并将第三特征图输出至全连接层。

在训练阶段,基于迁移学习,图像分类模型会加载训练好的权重参数,由于模型的结构变动的位置越靠前,对原模型结构影响越大,导致原模型权重参数有效利用率越小,所以仅在第五卷积层后分别增加一个注意力机制模块,在使得模型的图像识别性能更准确的同时最大程度地降低加入注意力机制模块对原模型结果带来的影响。

在本实施方式中,注意力机制模块被插入到卷积层(即特征提取器)和全连接层(即分类器)之间,用于分别在通道和空间两个维度对卷积层提取的特征进行调整,再将调整好的特征图输入到残差网络的全连接层,以使对分类任务更有用的特征得到增强、对分类任务用处较小的特征受到抑制。

具体地,如图2所示,记残差网络wide resnet50的conv5_x层(即第五卷积层)输出的第一特征图为F

M

其中,σ表示sigmoid函数。

继续对尺寸为[C,H,W]的第二特征图F

M

其中,σ表示sigmoid函数,f

较佳地,如图3所示,步骤S13包括:

S131、将训练数据集输入到图像分类模型,得到模型输出结果;

S132、根据模型输出结果,利用损失函数计算图像分类模型的损失;

S133、根据损失调整图像分类模型中未被冻结的权重参数,直至达到收敛条件。

作为一种优选实施方式,步骤S133中根据损失调整图像分类模型中未被冻结的权重参数包括:

根据模型输出结果和平衡因子,基于第一学习率调整未被冻结的卷积层的权重参数;

根据模型输出结果和平衡因子,基于第二学习率调整全连接层的权重参数;

其中,第一学习率小于第二学习率;平衡因子为训练数据集中各分类标签标注的样本数与训练数据集的样本总数的比例。

具体地,使用focal loss损失函数来优化模型参数。记模型输出Y={y

其中,label表示图片的正式标签序号,为取值范围在[1,N+1]之间的整数。

本实施例中,损失的反向传播采用基于动量的随机梯度下降的方法,以加速收敛,动量因子为momentum=0.9。

然后,利用第一学习率对第四卷积层和第五卷积层中的权重参数进行调整,该第一学习率设为0.001;利用第二学习率对注意力机制模块和残差网络的最后的全连接层中的权重参数进行调整,该第二学习率设为0.01;冻结其他层中的参数,不做更新。训练过程中,每迭代5轮,将参数学习率的大小减半。

此外,本实施例中,利用线上数据对模型进行测试,抽验测试结果,针对错误标注的case(情况)补充相应的正负样本到训练集,剔除不利于模型训练的不典型样本,并更新平衡因子,对模型进行重新训练。重复多轮数据迭代,直到模型的准确率满足生产需求才停止训练。基于TorchServe模型服务器框架,将目标图像标注模型进行打包部署,结合Gunicorn与Flask框架开发服务接口。

本实施例通过在图像分类标签体系中增加非目标标签构造训练数据集,利用残差网络和注意力机制构建图像分类模型,基于迁移学习加载训练好的图像分类模型的权重参数,并针对包括海量属于目标类别的图像数据和不属于目标类别的图像数据进行训练。其中,为属于目标类别的图像数据标注目标标签,为不属于目标类别的图像数据标注非目标标签,在模型训练时计算模型的损失并利用基于动量的随机梯度下降的方法优化模型的权重,实现了在海量图片中对不属于目标类别的图像数据进行自动化识别和分类,大幅节省人力成本,极大地提高了图片识别和标注的准确率,便于后续基于标注结果进行二次开发,以及产品开发中挑选出更多更优质的图片进行展示,进而提升用户体验。

实施例2

如图4所示,本实施例提供一种图像分类方法,该图像分类方法包括:

S21、获取待分类图像数据;

S22、将待分类图像数据输入到根据实施例1的图像分类模型训练方法得到的目标图像分类模型中,得到待分类图像数据的分类结果。

本实施例利用目标图像分类模型,实现了在海量图片中对不属于目标类别的图像数据进行自动识别和分类的目的。

实施例3

如图5所示,本实施例提供一种图像分类模型训练系统,该图像分类模型训练系统包括:

模型获取模块1,用于获取预先训练好的图像分类模型以及训练数据集,其中,图像分类模型包括残差网络结构,残差网络结构包括依次连接的至少一个卷积层和一个全连接层,训练数据集包括被预设的分类标签标注的图像数据,分类标签包括若干不同的目标标签和一个非目标标签,非目标标签与目标标签的类别不同

模型更新模块2,用于在图像分类模型的卷积层和全连接层之间加入注意力机制模块3,并根据分类标签的类别数量调整全连接层中输出节点的数量,以更新图像分类模型;注意力机制模块用于对卷积层输出的特征图的不同通道和区域进行调整;

模型训练模块4,用于使用训练数据集训练图像分类模型,以获得目标图像分类模型;其中,在训练过程中冻结全部或部分卷积层的权重参数。

在具体实施过程中,模型获取模块1可以包括但不限于利用开源的PyTorch深度学习框架,对模型的网络结构进行定义。

在本实施例中,对基于在公开场景分类数据集place365(一种大型数据集)上训练好的图片分类模型进行迁移学习。由于该场景分类数据集包含大量的图像数据,通过使用该图像数据集训练后的图像分类模型,其卷积层(即特征提取器)部分的权重参数具备较好的性能,能够更好地对图像的特征进行提取。因此,在本实施例中,仅保留经过该数据集训练的图像分类模型的卷积层的权重参数,并根据目标标签和非目标标签的总和对应地设置全连接层输出节点的数量以更换全连接层。

具体地,残差网络选择wide resnet50,输入图片尺寸限制为224×224,最后全连接层的输出节点数设置为N+1,对应N个目标标签和1个非目标标签。

具体地,可以将目标标签具体设置为“室内”、“室外”、“自然”、“美食”、“近景”和“活动”等场景类别,而非目标标签则可以对应地设置为“其他”非场景类别。基于上述标签体系定义,分别收集整理每个场景标签的图片数据以及不属于任意一个场景标签定义的“其他”数据,以构造初始训练数据集。其中,图片数据可以来源于多种途径,例如采用爬虫技术进行收集、使用历史积累的相关数据以及使用人工标注的数据等。

本实施例的图片分类模型训练方法基于包括残差网络结构的训练好的图像分类模型进行迁移学习,在该图像分类模型已经具备一定的图像识别能力的基础下,继续针对预期特定目标进行再训练,不但使得训练所需的时间大幅减少,同时在该图像分类模型中引入了注意力机制模块,还进一步地提高了图像识别的准确率。

作为一种优选的实施方式,图像分类模型的残差网络结构包括第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层;

在该图像分类模型的卷积层和全连接层之间加入注意力机制模块的步骤包括在第五卷积层后增加一个注意力机制模块3。

上述注意力机制模块3优选用于对卷积层输出的第一特征图在空间维度上进行压缩,得到第一特征图在通道维度上的第一权重,并根据第一权重与第一特征图计算第二特征图;以及对第二特征图在通道维度上进行压缩,得到第二特征图在空间维度上的第二权重,并根据第二权重与第二特征图计算第三特征图,并将第三特征图输出至全连接层。

在训练阶段,基于迁移学习,图像分类模型会加载训练好的权重参数,由于模型的结构变动的位置越靠前,对原模型结构影响越大,导致预训练权重有效利用率越小,所以仅在第五卷积层后分别增加一个注意力机制模块,在使得模型的图像识别性能更准确的同时最大程度地降低加入注意力机制模块对原模型结果带来的影响。

在本实施方式中,注意力机制模块被插入到卷积层(即特征提取器)和全连接层(即分类器)之间,用于分别在通道和空间两个维度对卷积层提取的特征进行调整,再将调整好的特征图输入到残差网络的全连接层,以使对分类任务更有用的特征得到增强、对分类任务用处较小的特征受到抑制。

具体地,如图2所示,记残差网络wide resnet50的conv5_x层(即第五卷积层)输出的第一特征图为F

M

其中,σ表示sigmoid函数。

继续对尺寸为[C,H,W]的第二特征图F

M

其中,σ表示sigmoid函数,f

较佳地,如图3所示,模型训练模块4还用于:

将训练数据集输入到图像分类模型,得到模型输出结果;

根据模型输出结果,利用损失函数计算图像分类模型的损失;

根据损失调整图像分类模型中未被冻结的权重参数,直至达到收敛条件。

作为一种优选实施方式,模型训练模块4还用于:

根据模型输出结果和平衡因子,基于第一学习率调整未被冻结的卷积层的权重参数;

根据模型输出结果和平衡因子,基于第二学习率调整全连接层的权重参数;

其中,第一学习率小于第二学习率;平衡因子为训练数据集中各分类标签标注的样本数与训练数据集的样本总数的比例。

具体地,使用focal loss损失函数来优化模型参数。记模型输出Y={y

其中,label表示图片的正式标签序号,为取值范围在[1,N+1]之间的整数。

本实施例中,损失的反向传播采用基于动量的随机梯度下降的方法,以加速收敛,动量因子为momentum=0.9。

然后,利用第一学习率对第四卷积层和第五卷积层中的权重参数进行调整,该第一学习率设为0.001;利用第二学习率对注意力机制模块和残差网络的最后的全连接层中的权重参数进行调整,该第二学习率设为0.01;冻结其他层中的参数,不做更新。训练过程中,每迭代5轮,将参数学习率的大小减半。

此外,本实施例中,利用线上数据对模型进行测试,抽验测试结果,针对错误标注的case(情况)补充相应的正负样本到训练集,剔除不利于模型训练的不典型样本,并更新平衡因子,对模型进行重新训练。重复多轮数据迭代,直到模型的准确率满足生产需求才停止训练。基于TorchServe模型服务器框架,将目标图像标注模型进行打包部署,结合Gunicorn与Flask框架开发服务接口。

本实施例通过在图像分类标签体系中增加非目标标签构造训练数据集,利用残差网络和注意力机制构建图像分类模型,基于迁移学习加载训练好的图像分类模型的权重参数,并针对包括海量属于目标类别的图像数据和不属于目标类别的图像数据进行训练。其中,为属于目标类别的图像数据标注目标标签,为不属于目标类别的图像数据标注非目标标签,在模型训练时计算模型的损失并利用基于动量的随机梯度下降的方法优化模型的权重,实现了在海量图片中对不属于目标类别的图像数据进行自动化识别和分类,大幅节省人力成本,极大地提高了图片识别和标注的准确率,便于后续基于标注结果进行二次开发,以及产品开发中挑选出更多更优质的图片进行展示,进而提升用户体验。

实施例4

如图6所示,本实施例提供一种图像分类系统,该图像分类系统包括:

图像获取模块5,图像获取模块5用于获取待分类图像数据;

图像分类模块6,图像分类模块6用于将待分类图像数据输入到利用实施例3的图像分类模型训练系统得到的目标图像分类模型中,得到待分类图像数据的分类结果。

本实施例利用目标图像分类模型,实现了在海量图片中对不属于目标类别的图像数据进行自动识别和分类的目的。

实施例5

图7为本发明实施例5提供的一种电子设备的结构示意图。电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现实施例1的图像分类模型训练方法或实施例2的图像分类方法。图7显示的电子设备30仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图7所示,电子设备30可以以通用计算设备的形式表现,例如其可以为服务器设备。电子设备30的组件可以包括但不限于:上述至少一个处理器31、上述至少一个存储器32、连接不同系统组件(包括存储器32和处理器31)的总线33。

总线33包括数据总线、地址总线和控制总线。

存储器32可以包括易失性存储器,例如随机存取存储器(RAM)321和/或高速缓存存储器322,还可以进一步包括只读存储器(ROM)323。

存储器32还可以包括具有一组(至少一个)程序模块324的程序/实用工具325,这样的程序模块324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。

处理器31通过运行存储在存储器32中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1的图像分类模型训练方法或实施例2的图像分类方法。

电子设备30也可以与一个或多个外部设备34(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口35进行。并且,模型生成的设备30还可以通过网络适配器36与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器36通过总线33与模型生成的设备30的其它模块通信。应当明白,尽管图中未示出,可以结合模型生成的设备30使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。

应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。

实施例6

本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,程序被处理器执行时实现实施例1的图像分类模型训练方法或实施例2的图像分类方法的步骤。

其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。

在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行实现实施例1的图像分类模型训练方法或实施例2的图像分类方法的步骤。

其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。

虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号