首页> 中国专利> 基于改进Ranger的深度学习方法

基于改进Ranger的深度学习方法

摘要

本发明涉及深度学习领域,特别涉及基于改进Ranger的深度学习方法,本发明基于改进Ranger的深度学习方法通过指数加权平均方法优化Radam算法获得的方差、反向反馈验证法改进Lookahead算法的K参数和后项拟合的方法改进学习率解决了深度学习在算法训练时精度低、运行时间长和消耗资源多的问题,本发明适用于基于Ranger的深度学习。

著录项

  • 公开/公告号CN112488772A

    专利类型发明专利

  • 公开/公告日2021-03-12

    原文格式PDF

  • 申请/专利权人 四川长虹电器股份有限公司;

    申请/专利号CN202011506464.1

  • 发明设计人 孙永强;

    申请日2020-12-18

  • 分类号G06Q30/02(20120101);G06F21/62(20130101);G06N20/00(20190101);

  • 代理机构51124 成都虹桥专利事务所(普通合伙);

  • 代理人吴中伟

  • 地址 621000 四川省绵阳市高新区绵兴东路35号

  • 入库时间 2023-06-19 10:11:51

说明书

技术领域

本发明涉及深度学习领域,特别涉及基于改进Ranger的深度学习方法。

背景技术

销售预测系统运用模型进行数据预测,从而为业务提供技术支持,模型分为机器学习、深度学习、时间序列等。其中深度学习算法是预测算法中的重中之重,随着人工智能的发展,深度学习算法被广泛应用于各个场景。

深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像、声音和文本,深度学习是无监督学习的一种。深度学习的概念源于人工神经网络的研究,含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示,基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。

Ranger便是深度学习算法中的一种,它结合了Radam算法和Lookahead算法。

Radam的先进之处在于,能根据方差分散度,动态地打开或关闭自适应学习率,提供了一种不需要可调参数学习率预热的方法,它兼具Adam和SGD两者的优点,既能保证收敛速度快,也不容易掉入局部最优解。

LookAhead受到深度神经网络损失表面方面进展的启发,能够稳定深度学习训练和收敛速度。LookAhead减少了需要调整的超参数的数量,能以最小的计算开销实现不同深度学习任务的更快收敛。

Radam算法和Lookahead算法从不同的角度着手,各自在深度学习优化上实现了新的突破,具有高度协同性,但是Ranger仍存在以下缺点:1、Radam算法计算方差的时候容易出现过拟合现象,导致运行结果精度低;2、Lookahead算法训练k参数和学习率的时候,计算负担大,内存消耗多。

发明内容

本发明所解决的技术问题:提供基于改进Ranger的深度学习方法解决深度学习在算法训练时精度低、运行时间长和消耗资源多的问题。

本发明解决上述技术问题采用的技术方案:基于改进Ranger的深度学习方法包括以下步骤:

S01、获取数据源;

S02、将数据进行预处理;

S03、将数据进行Radam算法优化,计算梯度,利用指数加权平均方法优化方差,获得方差;

S04、用反向反馈验证法改进K参数;利用后向拟合的方法改进学习率;将数据进行Lookahead算法优化;

S05、输出预测结果。

进一步的,步骤S01中,数据源是销售数据。

进一步的,步骤S02中,预处理包括脱敏处理、缺失值填充处理、字段类型转换处理、归一化处理和标准化处理中的一种或多种,所述缺失值填充采取就近原则进行填充;所述字段类型转换是将部分字段字符串类型转为浮点类型。

进一步的,步骤S03中,优化方差的公式是

进一步的,步骤S04中,反向反馈验证法包括以下步骤:

S601、设置学习率a;

S602、针对数据按照S601设置的学习率进行迭代运算,获得权重,并备份;

S603、从现有权重出发,运行LookAhead算法得到k参数,并根据φ

S604、更新模型权重;

S605、查看模型收敛性;

S606、获得模型达到最佳收敛时的k。

进一步的,步骤S601中,设置初始学习率为一个或多个,步骤S602中,迭代处理是任意单次或多次。

进一步的,步骤S04中,后向拟合的方法,包括以下步骤:

S901、针对数据进行迭代处理;

S902、设置初始学习率a=0.5和k,k的值是反向反馈验证法计算出的k值;

S903、运行LookAhead算法,查看模型损失函数以及模型拟合情况,拟合优度

S904、改变步骤S902中的初始学习率,找到模型最佳拟合情况,即R

S905、输出模型最佳拟合情况学习率设置值。

进一步的,步骤S901中,迭代处理是任意单次或多次。

进一步的,步骤S05中,输出预测结果是一个数据或多个数据。

本发明的有益效果:本发明基于改进Ranger的深度学习方法通过指数加权平均方法优化Radam算法获得方差、反向反馈验证法改进Lookahead算法的k参数和后项拟合的方法改进学习率解决了深度学习在算法训练时精度低、运行时间长和消耗资源多的问题,提高深度学习算法的学习速度和效果。

附图说明

图1是本发明基于改进Ranger的深度学习方法的计算过程流程图。

具体实施方式

本发明提供基于改进Ranger的深度学习方法解决了深度学习在算法训练时精度低、运行时间长和消耗资源多的问题,提高深度学习算法的学习速度和效果,包括以下步骤:

S01、获取数据源;

S02、将数据进行预处理;

S03、将数据进行Radam算法优化,计算梯度,利用指数加权平均方法优化方差,获得方差;

S04、用反向反馈验证法改进K参数;利用后向拟合的方法改进学习率;将数据进行Lookahead算法优化;

S05、输出预测结果。

进一步的,步骤S01中,数据源是销售数据。

进一步的,步骤S02中,预处理包括脱敏处理、缺失值填充处理、字段类型转换处理、归一化处理和标准化处理中的一种或多种,所述缺失值填充采取就近原则进行填充;所述字段类型转换是将部分字段字符串类型转为浮点类型。

进一步的,步骤S03中,优化方差的公式是

进一步的,步骤S04中,反向反馈验证法包括以下步骤:

S601、设置学习率a;

S602、针对数据按照S601设置的学习率进行迭代运算,获得权重,并备份;

S603、从现有权重出发,运行LookAhead算法得到k参数,并根据φ

S604、更新模型权重;

S605、查看模型收敛性;

S606、获得模型达到最佳收敛时的k。

进一步的,步骤S601中,设置初始学习率为一个或多个,步骤S602中,迭代处理是任意单次或多次。

进一步的,步骤S04中,后向拟合的方法,包括以下步骤:

S901、针对数据进行迭代处理;

S902、设置初始学习率a=0.5和k,k的值是反向反馈验证法计算出的k值;

S903、运行LookAhead算法,查看模型损失函数以及模型拟合情况,拟合优度

S904、改变步骤S902中的初始学习率,找到模型最佳拟合情况,即R

S905、输出模型最佳拟合情况学习率设置值。

进一步的,步骤S901中,迭代处理是任意单次或多次。

进一步的,步骤S05中,输出预测结果是一个数据或多个数据。

具体的,如附图1所示,选取一组销售数据作为原始数据,如下表1:

表一:原始销售数据表

下一步,将原始销售数据做脱敏处理,得到的数据如下表2所示:

表2:脱敏数据表

下一步,将数据进行Radam算法优化,计算梯度,利用指数加权平均方法优化方差,获得方差,计算公式如下:g

设计一个S(v

其中S表示方差,其中0.8是固定值,这里采取人工调参的方式确认的。获得数据如下表3:

表3:Radam算法获得方差

下一步,用反向反馈验证法改进K参数,利用后向拟合的方法改进学习率,进行Lookahead算法优化,LookAhead拥有两套权重,即FastWeights和SlowWeights,Lookahead首先使用内部循环中的SGD等标准优化器,更新k次FastWeights,然后以最后一个FastWeights的方向更新Slow Weights;第一套权重Fast Weights其更新规则:θt,i+1=θt,i+A(L,θt,i-1,d),其中A为优化器,L为目标函数,d为样本数据,θt,i+1表示内循环优化器更新规则,但这里会将该轮循环的k次权重,用序列都保存下来;第二套权重SlowWeights其计算公式:

φ

=a[θ

+(1-a)

这里的a是SlowWeights的学习率。具体的,用反向反馈验证法改进K参数包括以下步骤:

S601、设置学习率分别为0.1,0.01,0.5;

S602、针对数据分别按照S601设置的学习率分别进行迭代5,10,15,20,25和30次运算,获得权重,并备份;

S603、从现有权重出发,运行LookAhead算法得到k参数,并根据φ

S604、更新模型权重;

S605、查看模型收敛性;

S606、获得模型达到最佳收敛时的k,k=0.7;

利用后向拟合的方法改进学习率包括以下步骤:

S901、针对数据分别进行迭代5,10,15,20,25,30次;

S902、设置初始学习率a=0.5和k,K的值是反向反馈验证法计算出的k值;

S903、运行LookAhead算法,查看模型损失函数以及模型拟合情况,拟合优度

S904、改变步骤S902中的初始学习率,找到模型最佳拟合情况,即R

S905、输出模型最佳拟合情况学习率设置值a=0.8。

下一步,输出预测结果,预测结果为2020年10月,销售数据为95926,本发明基于改进Ranger的深度学习方法计算过程用时如下表4。

表4:本发明基于改进Ranger的深度学习方法用时

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号