首页> 中文学位 >基于MPI+CUDA并行的相场模型模拟研究
【6h】

基于MPI+CUDA并行的相场模型模拟研究

代理获取

目录

声明

插图索引

插表索引

第1章 绪 论

1.1 课题研究背景及意义

1.2 国内外研究现状

1.3 本文主要研究内容

1.4 本文结构安排

第2章 MPI与CUDA并行计算简述

2.1 并行计算概述

2.2 物理问题在并行机上的求解

2.3 MPI并行编程技术

2.4 CUDA并行编程技术

2.5 本章小节

第3章 建立PF-LBM模型

3.1 建立相场模型

3.2 建立LBM流场模型

3.3 在相场模型中耦合LBM流场模型

3.4 本章小结

第4章 数值模拟异构并行化实现及优化

4.1 数值模拟参数与步长

4.2 初始条件设置

4.3 PF-LBM模型在MPI中的并行编程设计

4.4 CUDA三维数组编程优化

4.5 CUDA随机数优化

4.6 PF-LBM模型在MPI+CUDA中的异构实现

4.7 PF-LBM模型在MPI+CUDA上的设计实现

4.8 MPI与CUDA编程注意事项

4.9 本章小结

第5章 模型结果及并行化分析

5.1 模拟实验环境

5.2 不同模拟结果对比

5.3 模拟效率及分析

5.4 模拟规模及分析

5.5 本章小结

总结与展望

参考文献

致谢

附录A 攻读硕士期间所发表的论文

附录B 攻读硕士学位期间所参与的科研项目

展开▼

摘要

相场法是目前数值模拟微观组织枝晶生长最具潜力的方法之一。为使模拟结果尽量贴近现实,文中将计算枝晶生长的单相系统晶粒纯扩散相场模型与计算动量、质量及能量传输格子Boltzmann方法耦合,建立了一个适应于模拟自然对流作用下三维合金枝晶生长的PF-LBM多场耦合模型。但由于材料微观组织数值模型是一个密集型计算问题,其模拟时间太长且模拟规模太小。为了解决这两个问题,文中又使用MPI+CUDA混合粒度异构并行计算来探索出一种同时具有GPU高计算效率和MPI可扩大模拟规模的不同粒度异构并行算法。
  使用MPI+CUDA混合粒度并行方法对PF-LBM三维枝晶生长模型模拟,用MPI方式进行粗粒度划分,把完整三维模型划分为单个相等小模型放入不同节点中,突破单机下模拟规模的限制。而在每一个节点中又以CUDA并行方式进行细粒度划分,实现节点内完全并行化,从而提高总体计算效率。同时文中在CUDA编程中提出“伪三维数组”编程法,把CUDA线性数组访问转化成数组坐标访问形式,简化CUDA编程。在编译方面,利用MakeFile文件,把CUDA函数与MPI函数统一编写和编译,减少了MPI+CUDA因分别编译链接带来的烦琐。在CUDA随机数生成中,提出了不同产生方法,并比较其时间效率,解决CUDA随机数生成困难与时间消耗太长等问题。
  在相同模拟计算环境下,文章实现了MPI+CUDA混合粒度异构并行在PF-LBM模型上的数值模拟,并与串行、MPI及GPU并行计算结果相比较,得出各并行化结果与串行结果一致,且符合实际实验。同时得到以下规律:在模拟时间上,MPI并行方式随着节点数的增加,呈先减少、后增加的倒抛物线模式,MPI+CUDA异构并行与单GPU并行时间比较呈先增加、后减少、再增加的sin函数模式,并且在相同节点数中的MPI+CUDA模拟时间总小于MPI的模拟时间;在模拟规模上,不同并行模拟方法的模拟规模均随着节点数的增加而增加。最后,由于受模拟环境限制,文中模拟数据表明:在运算效率接近的情况下,21节点MPI+CUDA的最大模拟规模可达4203,是单GPU模拟规模的13倍;在相同模拟规模下,21节点MPI+CUDA的加速比可达到57,比21节点MPI的加速比提高了54%。所以,文中提出的MPI+CUDA混合粒度异构并行方法在求解多场耦合模型中同时拥有了GPU的高计算效率和MPI可扩大模拟规模的优点。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号