首页> 中国专利> 一种面向图像处理的卷积神经网络垂直分割方法

一种面向图像处理的卷积神经网络垂直分割方法

摘要

本发明公开了一种面向图像处理的卷积神经网络垂直分割方法,属于深度学习以及分布式计算领域。该方法首先将连续卷积层最后一层的输入特征图分割为连续的子特征图,再根据子特征图,并依据卷积计算操作,反向逐层计算上一层对应的子特征图,直至第一层,参考第一层的子特征图,对第一层的输入特征图进行分割,将第一层分割后的子特征图分配给多个计算节点。最后,依据单链路连续卷积层的参数和超参数,实施无精度损失的分布式协同推理,并在所有推理结果生成后进行推理结果的汇总,生成最终的输出特征图。相比于过往方法,本发明的方法具有大幅度降低卷积神经网络推理时延并且没有精度损失的特点。

著录项

  • 公开/公告号CN112363844A

    专利类型发明专利

  • 公开/公告日2021-02-12

    原文格式PDF

  • 申请/专利权人 之江实验室;

    申请/专利号CN202110037236.2

  • 申请日2021-01-12

  • 分类号G06F9/50(20060101);G06T7/10(20170101);G06N3/04(20060101);

  • 代理机构33200 杭州求是专利事务所有限公司;

  • 代理人邱启旺

  • 地址 310023 浙江省杭州市余杭区文一西路1818号人工智能小镇10号楼

  • 入库时间 2023-06-19 09:54:18

说明书

技术领域

本发明涉及深度学习以及分布式计算领域,具体涉及一种面向图像处理的卷积神经网络垂直分割方法。

背景技术

随着计算机硬件的发展,应用数据量的激增,深度学习模型的能力得以逐渐释放。深度学习模型处理数据后所取得的结果准确性高,因此它被广泛应用于各类数据处理程序中。在这些数据处理程序中值得一提的是图像处理程序。其中所采用的卷积神经网络,大幅度地提高了图像处理的准确度,使得高精度的影像识别、视频分析等程序成为可能。但卷积神经网络当中的卷积层所需要的卷积运算需要大量的算力,在一些资源受限的计算节点中,卷积层推理成为整个推理过程的瓶颈。

鉴于此,现有技术考虑采用分布式计算的模型,并行地处理卷积层的输入特征图。目前流行的技术主要采用通道分割和空间分割两种方式。通道分割把每一个卷积层的输入特征图的通道分割为多个子通道,对每个子通道进行卷积运算。空间分割把每一个卷积层的输入特征图在二维平面上分割为多个子特征图,并对每个子特征图进行卷积运算。

然而现有技术存在如下问题:

1.当前通道分割方法在对每个子通道进行卷积运算后,存在一个结果拼接过程,拼接后的结果再作为下一个卷积层的输入特征图,该方法存在大量的数据传输冗余,且结果的多次拼接过程造成了不必要的计算开销。

2.现有空间分割方法没有充分考虑输入特征图填充过程,存在精度损失,造成模型推理结果不准确。

3.现有空间分割方法没有正确考虑卷积运算的反向推导过程,导致单链路上的连续卷积层的子特征图对应关系不准确,存在精度损失,造成模型推理结果不准确。

发明内容

本发明的目的在于针对现有技术的不足,提供了一种面向图像处理的卷积神经网络垂直分割方法,该方法对于资源受限的计算节点,提供一种分布式并行处理连续卷积层的方法;通过考虑输入特征图填充过程,准确计算卷积运算的反向推导,提供一种无精度损失的并行处理方法;取消特征图分割处理后的结果融合过程,减少数据传输冗余和结果拼接开销的并行处理方法。

本发明的目的是通过以下技术方案来实现的:一种面向图像处理的卷积神经网络垂直分割方法,包括以下步骤:

(1)对于图像处理中的卷积神经网络上的连续卷积层,领导者节点获取每一个卷积层的参数和超参数、卷积层之间的池化层的超参数、卷积层之间的批标准化层和线性整流函数层的超参数,所述领导者节点将上述参数和超参数以多播通信形式分发给计算节点;

(2)获取连续卷积层中的最后一层卷积层的输入特征图,并将其分割为连续的子特征图,并为所有子特征图标注坐标;

(3)根据每个子特征图的坐标和每个卷积层或池化层的超参数,反推上一层对应的子特征图的坐标,直至获得第一个卷积层的子特征图的坐标;

(4)依据步骤(3)获得的第一个卷积层的子特征图的坐标,对第一层的输入特征图进行分割,并将分割后的第一层的子特征图分配给步骤(1)中的计算节点;

(5)每个计算节点根据连续的卷积层、卷积层之间的池化层、卷积层之间的批标准化层和线性整流函数层的参数和超参数,对分配给该计算节点的子特征图,进行无精度损失的推理;

(6)当所有计算节点均产生最后一个卷积层的输出子特征图后,领导者节点对所有的输出子特征图进行汇总,生成最终的输出特征图。

进一步地,所述领导者节点通过以下方式获得:对于资源受限的计算节点,当其被分配图像处理中的卷积神经网络推理任务之后,通过多播通信形式,向计算节点发送所述资源受限的计算节点成为领导者节点的通知。

进一步地,步骤(2)包括如下子步骤:

(2.1)获取连续卷积层中的最后一层卷积层的输入特征图,根据计算节点的数量,将最后一层卷积层的输入特征图分割为与计算节点数量相同的子特征图;

(2.2)对于上述子特征图所在的输入特征图,以左上角为原点,上边为

(2.3)依据原特征图中各像素点的坐标,对子特征图的左上角和右下角进行坐标标注。

进一步地,步骤(3)中反推的方法为卷积过程的逆过程,所述卷积过程包括输入特征图填充和卷积计算。

进一步地,步骤(6)包括如下子步骤:

(6.1)领导者节点监听计算各计算节点的推理情况,当所有计算节点均产生最后一个卷积层的输出子特征图后,该领导者节点发送收集子特征图指令,各计算节点收到指令后,将子特征图发送给领导者节点;

(6.2)领导者节点收到所述各个子特征图后,将子特征图的坐标进行汇总,生成最终的输出特征图。

与现有技术相比,本发明具有如下有益效果:单链路连续卷积层的推理过程需要大量的计算资源,采用对输入特征图分割后分布式并行处理的方法,能够有效缓解性能瓶颈,加速推理过程;在分布式并行推理过程中,每个计算节点使用被分配的子输入特征图进行推理,在整个单链路连续卷积层的推理过程不需要交换任何中间计算结果,减缓了通信开销;在计算单链路连续卷积层第一层的输入特征图分割坐标时,充分考虑了卷积运算过程和特征图填充过程,使得分布式并行运算结果汇总后的结果和单节点推理后所产生的运算结果相同,整个运算过程没有对特征图进行剪枝或压缩,因而没有精度损失。

附图说明

图1为本发明方法的流程图。

图2为本发明方法中计算第一个卷积层的输入子特征图坐标的示意图。

具体实施方式

为了使本发明的目的、技术方案及优点更加明白清楚,结合附图和实施例, 对本发明进一步的详细说明,应当理解,此处所描述的具体实施例仅仅用以解释本发明,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人 员在没有做出创造性劳动前提下所获得的所有其他实施例,均在本发明保护范围。

如图1所示,本发明所提供的一种面向图像处理的卷积神经网络垂直分割方法,包含以下步骤:

(1)对于图像处理中的卷积神经网络上的连续卷积层,领导者节点获取每一个卷积层的参数和超参数、卷积层之间的池化层的超参数、卷积层之间的批标准化层和线性整流函数层的超参数,所述领导者节点将上述参数和超参数以多播通信形式分发给计算节点;所述卷积神经网络包括单链路卷积神经网络和多链路卷积神经网络,对于多链路卷积神经网络,所述领导者节点将其中的每一条单链路卷积神经网络单独进行所述参数与超参数的获取和分发操作。

(1.1)对于一个资源受限的计算节点,当其被分配了一个图像处理中的卷积神经网络推理任务之后,该资源受限的计算节点为了加速推理过程,通过多播通信形式,向计算节点发送该资源受限的计算节点成为一个领导者节点的通知。

(1.2)领导者节点根据推理时延需求,依据各个卷积层的处理时间,挑选出需要分布式协同推理的单链路连续卷积层。该领导节点收集单链路连续卷积层中每一个卷积层的参数和超参数、卷积层之间的池化层的超参数、卷积层之间的批标准化层和线性整流函数层的超参数,并将这些信息以如下表1数据格式通过分布式系统网络,以多播通信形式分发给分布式系统中的计算节点。

表1.模型层的参数格式

(2)获取连续卷积层中的最后一层卷积层的输入特征图,并将其分割为连续的子特征图,并为所有子特征图标注坐标;包括如下子步骤:

(2.1)获取连续卷积层中的最后一层卷积层的输入特征图,根据计算节点的数量,将最后一层卷积层的输入特征图分割为与计算节点数量相同的子特征图;

(2.2)对于上述子特征图所在的输入特征图,以左上角为原点(0,0), 以输入特征图的上边为x轴,以左边为y轴,建立二维笛卡尔坐标系,原输入特征图中的每个像素点占一个坐标。

(2.3)依据原特征图中各像素点的坐标,对子特征图的左上角和右下角进行坐标标注。

具体地,如图2所示,将模型层ID为3的最后一层的大小为

对于上述步骤中的子特征图

(3)根据每个子特征图的坐标和每个卷积层或池化层的超参数,反推上一层对应的子特征图的坐标,直至获得第一个卷积层的子特征图的坐标;如图2所示,包括如下子步骤:

(3.1)对于ID为3的最后一个卷积层,其上一层ID为2的模型层是卷积层或池化层,则领导者节点反推计算每个子特征图

表2:ID为2的卷积层或池化层的参数

(3.2)领导者节点根据如下公式,计算出ID为2的模型层对应的包含填充的输入子特征图的坐标

(3.3)ID为2的模型层的输入特征图大小为:

(3.4)ID为2的模型层的上一层不是卷积层或池化层,则继续获取上一层模型的类型。

(3.5)领导者节点从ID为3的最后一个卷积层的子特征图开始,重复步骤(3.2)、(3.3),逐层反向推算上一卷积层或池化层的输入子特征图坐标,直到获得这几个卷积层中的第一个卷积层的子特征图的坐标。

(4)依据步骤(3)获得的第一个卷积层的子特征图的坐标,对第一层的输入特征图进行分割,并将分割后的第一层的子特征图分配给步骤一中的计算节点;包括以下子步骤:

(4.1)领导者节点根据计算出的第一层的A×B 个输入子特征图坐标

(4.2)领导者节点将这些子特征图分配给A×B个计算节点。

(5)每个计算节点根据连续的卷积层、卷积层之间的池化层、卷积层之间的批标准化层和线性整流函数层的参数和超参数,对分配给该计算节点的子特征图,进行无精度损失的推理,具体过程为:A×B个计算节点分别以被分配的子特征图为输入,通过步骤(1)中获得的卷积层、卷积层之间的池化层、卷积层之间的批标准化层和线性整流函数层,计算出ID为

(6)当所有计算节点均产生最后一个卷积层的输出子特征图后,领导者节点对所有的输出子特征图进行汇总,生成最终的输出特征图;包括以下子步骤:

(6.1)领导者节点监听分布式系统内各计算节点的推理情况,当所有计算节点均产生最后一个卷积层的输出子特征图后,该领导者节发送一个收集子特征图指令,各计算节点收到指令后,将推理产生的ID为

(6.2)领导者节点收到所述各个子特征图后,将子特征图依所述坐标合并成ID为

通过对比现在被广泛应用的Inception v4卷积神经网络的分割,本发明的分割方法在降低推理时延的同时降保证了没有精度损失,这是由于本发明中的分布式并行运算结果汇总后的结果和单节点推理后所产生的运算结果相同,整个运算过程没有对特征图进行剪枝或压缩,且对特征图采取的运算过程完全是原卷积神经网络的运算或其逆运算,因而没有精度损失。在拥有4个计算节点的分布式系统中,与Inception v4卷积神经网络的推理比较,时延降低为原来的27.3%。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号