首页> 中国专利> 一种面向通用多模态学习的神经框架搜索方法

一种面向通用多模态学习的神经框架搜索方法

摘要

本发明公开了一种面向通用多模态学习的神经框架搜索方法。本发明包括以下步骤:1、对图像和文本数据进行数据预处理,提取特征。2、初始化编码器‑解码器结构冗余网络和对应的架构参数。3、从架构参数分布中采样出子结构,并计算结果。4、模型搜索,热启动和交替更新保证搜索结构的稳定性。5、模型训练,将搜索出的最优子网络重新训练,得到最优网络模型。本发明提出一种针对图像文本多模态建模的神经框架搜索的方法,特别是针对不同的任务搜索到了更优的子网络,降低了网络的参数量计算量,充分利用各模态的深层次特征,提高了扩模态特征的表达能力,并且在三个多模态任务中获得了领先的效果。

著录项

  • 公开/公告号CN112488292A

    专利类型发明专利

  • 公开/公告日2021-03-12

    原文格式PDF

  • 申请/专利权人 杭州电子科技大学;

    申请/专利号CN202011300717.X

  • 发明设计人 余宙;俞俊;崔雨豪;

    申请日2020-11-19

  • 分类号G06N3/04(20060101);G06K9/62(20060101);G06N3/08(20060101);G06T3/40(20060101);G06T9/00(20060101);

  • 代理机构33240 杭州君度专利代理事务所(特殊普通合伙);

  • 代理人朱月芬

  • 地址 310018 浙江省杭州市下沙高教园区2号大街

  • 入库时间 2023-06-19 10:11:51

说明书

技术领域

本发明提出一种面向通用多模态学习的神经框架搜索方法MMNasNet。

背景技术

视觉问答(Visual Question Answering)是一项多模态领域的新兴任务,该任务旨在根据提供的图像,对某个给定的关于图像的问题进行回答。具体来讲是输入一副图像和一个问题,通过模型后回答出这个问题所对应的答案。例如,图像内容为一条街道,街道上有各种颜色的房子,停了不同类型的车,还有很多数,行走的行人。当给出一个具体问题时,例如“走在斑马线上的穿黑衣服的行人左边的汽车是什么颜色的?”,模型需要识别到图中的物体还有物体的不同属性然后进行推理得到答案。视觉定位(Visual Grounding)任务旨在根据提供的物体描述,找出图像中相应的物体。例如,图像内容为两个人,左边的人穿着黑夹克,右边的人戴着红色帽子。当给出一个物体描述时,例如“穿黑夹克右边的人的帽子”,模型需要定位到右边的人的那一顶红色帽子上。图文匹配(Image-Text Matching)有两个子任务,分别是图像-文本匹配和文本-图像匹配,其目标是给定一段文本和一定数量的图片或者给定一副图片和一定数量的文本,需要对图片和文本的相关度进行打分并根据分数进行排序,找出前n副最相关的图像。

为了得到上述三个任务更准确的预测,机器需要理解给定图像和文本,并在此基础上对两者的信息进行合适的跨模态融合以最大程度地消除语义鸿沟。对比纯文本检索或者阅读理解任务,多模态任务需要从和文本相比不同模态的和不同形式的图像中获得关键信息来得到答案,那么如何更高效更轻量化的融合多模态信息就是解决问题的关键。

神经框架搜索(Neural Architecture Search,NAS)是自动机器学习(AutoMachine Learning,Auto ML)的一个重要的分支。模型的结构设计一直是深度学习性能的关键因素,手工设计模型结构需要大量经验和人工试错并且模型的性能和效率都得不到保障。神经框架搜索旨在针对不同任务自动搜索出性能效率较为平衡的网络结构,在学术界工业界都是备受关注的课题,而神经框架搜索方法优异的特性也是解决上述三个任务的保证。和普通的单模态神经框架搜索任务相比,多模态神经框架搜索任务是至今无人涉及的领域,如何保证搜索到的结构是图像-文本两个模态间的最优子结构是解决多模态的框架搜索任务关键所在。

深度学习自2006年产生之后就受到科研机构、工业界的高度关注,发展至今已收获诸多优秀的网络模型和各种有效的训练方法。单一模态的丰富研究支撑起跨模态的研究,使得跨模态任务逐渐成为一个主流研究方向。同时跨模态更符合真实的生活场景,具有丰富的研究意义和实际价值。图像作为近几年来一直发展的研究媒体,瓶颈渐现,而结合了自然语言形成的图像-文本的跨模态研究方向成为学术界工业界的热门研究点,但近年来跨模态领域的模型参数量冗余、计算效率低下、手工设计费时费力,这使得多模态的神经框架搜索任务成为值得深入探索的研究领域。

在实际应用方面,多模态神经框架搜索算法具有广泛的应用场景。现有工业界多模态任务各式各样,如多模态检索、推荐,文章自动配图等,但不同的任务几乎都有一套不同的架构,一方面导致了手工设计的成本过高,另一方面也导致算法迁移的难度较大,所以自动的构建网络架构具有十分良好的研究前景及重要的研究意义。

综上所述,多模态神经框架搜索是一个值得深入研究的课题,本专利拟从该任务中几个关键点切入展开探讨,解决目前方法存在的难点和重点,形成一套完整的多模态神经框架搜索系统。

针对框架来说,现有多模态框架类型很多,如基于双线性池化的,还有基于编码器解码器结构的,且不同的框架所使用的子操作也是各不相同。针对任务来说,自然语言的描述一般来自不同的标注者,具有较高的自由度,不具备统一固定的句子结构。同时,自然场景下的图像载体主题多样,内容复杂富于变化,物体框与框间可能具有较高的相似性和冗余度,而这使得所需要的架构需要,也使得架构搜索方法面临巨大的挑战。具体而言,主要存在如下两方面的难点:

(1)如何统一现有的基本结构,设计出冗余网络,保证设计的冗余网络可以覆盖现有较好的结构:前人手工设计的网络具有诸多可取之处,在设计基本结构的时候需要尽可能的覆盖前人手工设计的结构,在之基础上进行搜索改进,一来可以保证公平的对比,二来可以保证搜索出的结构稳定可靠。

(2)如何从冗余网络中搜索到最优子网络,保证性能的同时高效:设计出了基本结构后就需要构造出能覆盖基本结构衍生出各种可能的冗余网络。而最终的结构需要从冗余网络中进行搜索得到,而搜索算法则是关键所在,更优的子结构能保证算法的效率和性能。

发明内容

本发明提供了一种面向通用多模态学习的神经框架搜索方法。本发明主要包含两点:一个覆盖更多可能性的稳定的高效冗余网络以及一个从冗余网络中搜索到子网络且保证子网络性能和效率的搜索算法。

本发明解决其技术问题所采用的的技术方案包括如下步骤:

步骤(1)、数据预处理,对图像和文本数据提取特征

首先对图像V进行预处理和特征提取:

对图像V进行亮度归一化并进行比例缩放得到预处理后图像V′,将V′输入到训练好的Faster-RCNN网络中提取出图像中n个物体的框

其次提取文本数据的特征:

对于给定的单词数量为m的句子

步骤(2)、初始化编码器-解码器结构冗余网络和对应的架构参数:

定义子操作多头关系注意力模块MHRA(x,y,z,r)。

定义子操作自注意力机制SA(x)=MHRA(x,x,x,0)。

定义子操作协同注意力机制GA(x,y)=MHRA(x,y,y,0)。

定义子操作关系自注意力机制RSA(x,r)=MHRA(x,x,x,r)。

定义子操作前馈网络FFN(x)。

定义编码器层数e,解码器层数为d,初始化每一层的冗余结构:其结构如图1所示,其中每层编码器的冗余结构a

最后初始化每个子操作所对应的架构参数A

步骤(3)、从架构参数分布中采样子结构,并计算结果。

首先通过多项式分布对架构参数A

如图2所示,其中视觉问答和图文匹配任务将F′s和F′v分别经过注意力消融模块A

视觉定位任务将F′

视觉定位任务拆解为两个子任务,子任务一是找出对应的物体,子任务二是回归物体的框坐标让框更准。训练阶段第一个子任务对应的是排序损失(Rank Loss),对所有物体排序;第二个子任务用的是回归损失(Regression Loss),将所对应物体的框进行回归。在测试阶段,通过排序(rank)选到分数最高的物体框后再经过回归(regression)得到最后的框。

步骤(4)、模型搜索

模型搜索分为两个阶段:1.热启动阶段2.交替训练搜索阶段。

热启动阶段:首先随机初始化模型参数W

交替训练阶段:先更新k步模型参数W

步骤(5)、模型训练

架构参数A

步骤(1)具体实现如下:

1-1.对图像V进行亮度归一化并且比例缩放到最小边P

1-2.对于给定的单词数量为m的句子

步骤(2)构建冗余网络,具体实现如下:

2-1.定义子操作多头关系注意力模块MHRA(x,y,z,r)。输入

其中

其中

2-2.定义子操作自注意力机制SA(x)=MHRA(x,x,x,0)。

定义子操作协同注意力机制GA(x,y)=MHRA(x,y,y,0)。

定义子操作关系自注意力机制RSA(x,r)=MHRA(x,x,x,r)。

定义子操作前馈网络

2-3.定义编码器层数e,解码器层数为d,初始化每一层的冗余结构如图1所示,其中每层编码器的冗余结构:

a

每层解码器的冗余结构:

a

从而得到编码器A

和解码器A

初始化每个子操作所对应的架构参数:

其中,

步骤(3)从架构参数分布中采样子结构,并计算结果:

3-1.通过多项式分布(Multinomial Distribution)对架构参数A

3-2.将文本特征F

F′

F′

3-3.视觉问答任务:

将F′

F″

其中,

然后将F″

其中

训练阶段视觉问答任务通过交叉熵损失(Cross-entropy Loss)函数进行梯度求导反传。

3-4.图文匹配任务:

将F′

其中

训练阶段图文匹配任务通过匹配损失(Match Loss)函数L

L

=2log(W

+log(1-W

其中V,S分别为匹配的图像和文本,V′,S′分别是不匹配的图像和文本。W

3-5.视觉定位任务:

视觉定位任务将F′

视觉定位任务拆解为两个子任务,一是找出对应的物体,二是回归物体的框坐标让框更准。通过线性变换得到排序分布C

通过线性变换得到框的回归参数C

训练阶段第一个子任务对应的是排序损失(Rank Loss),其具体使用的是KL散度损失(KL-Divergence Loss),对所有物体排序;第二个子任务用的是回归损失(RegressionLoss)使用平滑L1损失(SmoothL1 Loss),将所对应物体的框进行回归。在测试阶段,通过排序(Rank)选到分数最高的物体框后再经过回归(Regression)得到最后的框。

步骤(4)模型搜索分为两个阶段:1.热启动阶段2.交替训练搜索阶段,具体如下:

4-1.热启动阶段:

首先随机初始化模型参数W

4-2.交替训练搜索阶段:

4-2-1.连续更新k步,得到随机采样出的子网络模型参数W′

4-2-3.不断重复步骤4-2-1和4-2-2,进行优化,直至整个网络模型收敛。

步骤(5)、模型训练,具体如下:

架构参数A

重新随机初始化子网络模型A

本发明有益效果如下:

本发明提出一种面向通用多模态学习的神经框架搜索方法MMNasNet,首次在多模态领域中用自动搜索到的框架取代手工设计的框架。搜索使得模型架构联系更加紧密,冗余参数大幅降低,并且能有效的提升视觉问答、视觉定位和图文匹配的准确率,同时也验证了本发明的通用性,可在其他多模态任务中使用。

本发明参数量小,效果显著,有利于更高效的分布式训练,有利于部署于内存受限的特定硬件。

核心方法为提出针对编码器解码器结构利用冗余网络搜索出子图的方法,用来解决多模态表征的有效融合和参数量的缩减,并在视觉问答,视觉定位,图文检索这三个跨模态深度学习任务中验证该模型的优越性。本方法首次提出在多模态领域用神经框架搜索方法对各个模态的特征进行建模,不仅得到了针对不同任务的性能更优的架构和更低的参数量,同时能更直观的分析出不同任务需要什么模块进行建模,加强了黑盒模型的可解释性。在MMNasNet模型表现优异的前提下,本发明进一步地提出了搜索更多子操作可以提升性能的结论并加入基于物体问位置的自注意力模块来验证结论,该模块将不同物体之间的两两位置关系进行建模指导注意力映射表的构建。实验中将自注意力机制、关系的自注意力机制、协同自注意力机制、前馈网络机制作为子操作,完成了基于这些操作对三种多模态学习任务的架构搜索,进而得到了更好的实验结果并降低了参数量,这证明了该方法的高效性和通用性,可在更多其他多模态任务中充分发挥价值。

附图说明

图1:搜索空间和子操作。

图2:三种多模态任务的分类层。

图3:三种多模态任务通过MMNasNet配合不同的任务头,分别搜索出最优的架构。

具体实施方式

下面对本发明的详细参数做进一步具体说明。

如图1和2所示,本发明提供本发明提出一种面向通用多模态学习的神经框架搜索方法MMNasNet。本发明首先对图像和文本数据进行数据预处理,提取特征。然后初始化编码器-解码器结构冗余网络和对应的架构参数。其次从架构参数分布中采样出子结构,并计算结果。再然后模型搜索,热启动和交替更新保证搜索结构的稳定性。最后进行模型训练,将搜索出的最优子网络重新训练,得到最优网络模型。本发明提出一种针对图像文本多模态建模的神经框架搜索的方法,特别是针对不同的任务搜索到了更优的子网络,降低了网络的参数量计算量,充分利用各模态的深层次特征,提高了扩模态特征的表达能力,并且在三个多模态任务中获得了领先的效果。

本发明具体实现步骤如下:

步骤(1)所述的数据预处理及对图像和文本进行特征抽取,具体如下:

1-1.对图像V进行亮度归一化并且按比例缩放到最小边600像素,最长边裁剪到1000像素,得到预处理后图像V′,将V′输入到训练好的Faster-RCNN网络中提取出图像中n个物体的框

1-2.对于给定的单词数量为m的句子

步骤(2)构建冗余网络,具体如下:

2-1.定义子操作多头关系注意力模块MHRA(x,y,z,r)。输入x,y,z∈R

2-2.定义子操作自注意力机制SA(x)=MHRA(x,x,x,0)。

定义子操作协同注意力机制GA(x,y)=MHRA(x,y,y,0)。

定义子操作关系自注意力机制RSA(x,r)=MHRA(x,x,x,r)。

定义子操作前馈网络FFX(x)=W

2-3.定义编码器层数12,解码器层数为18,初始化每一层的冗余结构。

步骤(3)采样子结构,并计算结果:

3-1.通过多项式分布(Multinomial Distribution)对架构参数A

3-2.将文本特征F

3-3.视觉问答任务:将F′

3-4.图文匹配任务:将F′

3-5.视觉定位任务将F′

步骤(4)模型搜索分为两个阶段:1.热启动阶段2.交替训练搜索阶段,具体如下:

4-1.热启动阶段首先随机初始化模型参数W

4-2.交替训练搜索阶段:

4-2-1.连续更新k步,得到随机采样出的子网络模型参数W′

4-2-2.再更新1步,只更新架构参数A

4-2-3.不断重复步骤4-2-1和4-2-2,进行优化,直至整个网络模型收敛。

步骤(5)、模型训练,具体如下:

架构参数A

重新随机初始化子网络模型A

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号