您现在的位置: 首页> 研究主题> 分布式学习

分布式学习

分布式学习的相关文献在1999年到2022年内共计112篇,主要集中在教育、自动化技术、计算机技术、中国军事 等领域,其中期刊论文78篇、会议论文2篇、专利文献2495725篇;相关期刊61种,包括黑龙江省政法管理干部学院学报、西安政治学院学报、信息系统工程等; 相关会议2种,包括第五届教育技术国际论坛、2007年首届仪表、自动化与先进集成技术大会等;分布式学习的相关文献由268位作者贡献,包括刘衍珩、刘铎、段莫名等。

分布式学习—发文量

期刊论文>

论文:78 占比:0.00%

会议论文>

论文:2 占比:0.00%

专利文献>

论文:2495725 占比:100.00%

总计:2495805篇

分布式学习—发文趋势图

分布式学习

-研究学者

  • 刘衍珩
  • 刘铎
  • 段莫名
  • 熊才平
  • 谭玉娟
  • 陈咸彰
  • D·W·刘
  • G·沃德
  • H·郑
  • 仲红
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

    • 陈浩杰; 范江亭; 刘勇
    • 摘要: 针对未设计启发式算法的组合优化问题设计统一的解决方案已成为机器学习领域的一个研究热点,目前成熟的技术主要针对静态的组合优化问题,但是对于加入动态变化的组合优化问题还没有得到充分的解决。为了解决以上问题,提出一个将多头注意力机制与分层强化学习结合来求解动态图上的旅行商问题的轻量级模型Dy4TSP。首先,用以多头注意力机制为基础的预测网络处理来自图卷积神经网络的节点表征向量输入;然后,借助分布式强化学习算法训练来快速地预估图中每个节点被输出作为最优解的可能性,使得模型在不同的可能性中全面探索问题的最优解决方案空间;最后,训练后的模型将实时地生成满足具体目标奖励函数的动作决策序列。该模型在3个组合优问题上进行了评估,实验结果表明,该模型在经典旅行商系列问题中解的质量比开源求解器LKH3高0.15~0.37个单位,明显优于带有边嵌入的图注意网络(EGATE)等最新的算法;并且在其他的动态旅行商问题中可以达到0.1~1.05的最优路径差距,结果也略胜一筹。
    • 杨洁; 董标; 付雪; 王禹; 桂冠
    • 摘要: 为了解决集中式学习存在的问题,提出了一种基于轻量化网络的分布式学习方法。分布式学习利用边缘设备进行本地训练和模型权重共享的方法训练同一个全局模型,既充分利用了各边缘设备的训练数据,又避免了边缘设备数据泄露。轻量化网络是一种由多个轻量化神经网络块堆叠而成的深度学习模型,相较于传统的深度学习模型,轻量化网络以较低的空间复杂度和时间复杂度实现较高的调制分类性能,有效地解决了分布式学习在实际部署中存在的边缘设备算力不足、存储空间有限及通信开销较高的问题。实验结果表明,基于分布式学习的自动调制信号分类技术在RadioML.2016.10A数据集的分类准确率为62.41%,相比于集中式学习,分类准确率仅降低了0.68%,训练效率提高了近5倍。实验结果也证明了在分布式学习下,部署轻量化网络可以有效降低通信开销。
    • 李新春; 詹德川
    • 摘要: 传统的机器学习经常采用数据中心化的方式进行训练,然而由于实际应用中的传输开销或者隐私保护限制,数据越来越呈现分散化、隔离化的趋势。分布式训练学习技术为分散在信息孤岛上的数据融合提供了一种解决方案。然而,由于分散化数据本身具有天然异质性,本地数据分布经常是非独立同分布的(Non-IID),这给分布式训练带来了挑战。首先,为了应对单一模型难以适配所有异质客户端的难题,在分布式训练的基础上引入了模型重用技术,提出了分布式模型重用框架(DMR)。然后,通过理论分析指出集成学习可以为异构数据提供有效的解决方案,并在此基础之上提出了使用多分类器的分布式模型重用技术(McDMR)。最后,为了减少实际应用过程中的存储、计算和传输开销,继而提出了两种具体的优化方案:使用多头分类器的分布式模型重用(McDMR-MH)和使用随机分类器采样的分布式模型重用(McDMR-SC)。在多个公开数据集上进行实验,实验结果验证了所提方法的有效性。
    • 张占营
    • 摘要: 针对当前说明文写作背离“传递知识或信息,使人知道、明白”的现状,论述指出素养立意背景下,要把读者作为交际语境写作的第一要素,创设真实的写作情境,强化写作目的,分析读者要素,探究未知事理,互动共享新知,让读者对未知的事物或事理有所知或有所明白,导向有价值、有意义的说明文写作教学。
    • 董亚晓; 杨寒冰; 樊浩
    • 摘要: 针对现代财务数据分析智能化的需求,文中对分布式强化学习理论进行了研究,构建了智能化的财务数据预警模型.该模型基于中央强化学习体系结构,使用多个执行模块增强单智能体强化学习算法的运算与泛化能力;在强化学习算法的选择上,引入了瞬时差分算法.该算法可以在学习中同步之前迭代状态的经验,且不依赖于最终的预测值,大幅度节约了存储开销;在财务数据分析指标体系的建立上,文中综合考虑了企业的运营、发展、偿债等多个方面的能力,保证了指标体系的完整性与合理性.为了评估算法的性能,文中以真实的财务数据作为样本,使用BP神经网络进行对比实验.测试结果表明,该模型的识别正确率在各个实验场景下均优于BP神经网络,其中实验三的识别正确率提升了4.6%.
    • 王家瑞; 谭国平; 周思源
    • 摘要: 现有无线联邦学习框架缺乏对实际的分布式高速车联网(IoV)场景的有效支持.针对该场景下的分布式学习问题,提出了一种基于随机网络拓扑模型的分布式训练算法——分簇式无线联邦学习算法(C-WFLA).首先,该算法基于高速公路场景下的车辆分布情况设计网络模型;其次,该算法考虑了用户端进行上行数据传输时的路径衰落、瑞利衰落等因素;最后,该算法设计了基于分簇式训练的无线联邦学习方法.利用所提算法对手写体识别模型进行了训练与测试,仿真结果表明:在信道状态较好、用户发射功率受限较小的情况下,传统无线联邦学习算法与C-WFLA在相同的训练条件下损失函数均能收敛至相近的数值,且C-WFLA收敛更快;而在信道状态较差、用户发射功率受限较大的情况下,C-WFLA损失函数收敛值相较于传统的集中式算法可以降低10%~50%.可见,C-WFLA更有助于高速IoV场景下的模型训练.
    • 谌明; 张蕾; 马天翼
    • 摘要: 数据隐私保护问题已成为推荐系统面临的主要挑战之一.随着《中华人民共和国网络安全法》的颁布和欧盟《通用数据保护条例》的实施,数据隐私和安全成为了世界性的趋势.联邦学习可通过不交换数据训练全局模型,不会泄露用户隐私.但是联邦学习存在每台设备数据量少、模型容易过拟合、数据稀疏导致训练好的模型很难达到较高的预测精度等问题.同时,随着5G(the 5th generation mobile communication technology)时代的到来,个人设备数据量和传输速率预计比当前提高10~100倍,因此要求模型执行效率更高.针对此问题,知识蒸馏可以将教师模型中的知识迁移到更为紧凑的学生模型中去,让学生模型能尽可能逼近或是超过教师网络,从而有效解决模型参数多和通信开销大的问题.但往往蒸馏后的学生模型在精度上会低于教师模型.提出一种面向推荐系统的联邦蒸馏方法,该方法首先在联邦蒸馏的目标函数中加入Kullback-Leibler散度和正则项,减少教师网络和学生网络间的差异性影响;引入多头注意力机制丰富编码信息,提升模型精度;并提出一个改进的自适应学习率训练策略来自动切换优化算法,选择合适的学习率,提升模型的收敛速度.实验验证了该方法的有效性:相比基准算法,模型的训练时间缩短52%,模型的准确率提升了13%,平均误差减少17%,NDCG值提升了10%.
    • 摘要: 分布式学习对教育资源供给提出新考验《教育理论与实践》,王华丽,2020年第23期随着互联网技术的快速发展,个体成为信息社会的节点和终端,各类信息资源得以脱离时空限制,以及时便捷的形式供给给学生,这使得学习开始具备空间和时间上的分布趋势。
    • 董雪梅; 王洁微
    • 摘要: 针对工业、信息等领域出现的基于较大规模、非平稳变化复杂数据的回归问题,已有算法在计算成本及拟合效果方面无法同时满足要求.因此,文中提出基于多尺度高斯核的分布式正则化回归学习算法.算法中的假设空间为多个具有不同尺度的高斯核生成的再生核Hilbert空间的和空间.考虑到整个数据集划分的不同互斥子集波动程度不同,建立不同组合系数核函数逼近模型.利用最小二乘正则化方法同时独立求解各逼近模型.最后,通过对所得的各个局部估计子加权合成得到整体逼近模型.在2个模拟数据集和4个真实数据集上的实验表明,文中算法既能保证较优的拟合性能,又能降低运行时间.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号