首页> 中文期刊> 《航空学报》 >非结构CFD软件MPI+OpenMP混合并行及超大规模非定常并行计算的应用

非结构CFD软件MPI+OpenMP混合并行及超大规模非定常并行计算的应用

         

摘要

常规工程应用中,非定常数值模拟(如多体分离)的计算量十分巨大,如果为了达到更高的计算精度,加密网格或者采用高精度方法将会使得计算量进一步增大,导致非定常数值模拟在CFD工程应用中成为十分耗时和昂贵的工作,因此,提高非定常数值模拟的可扩展性和计算效率十分必要.为充分发挥既有分布内存又有共享内存的多核处理器的性能和效率优势,对作者团队开发的非结构网格二阶精度有限体积CFD软件(HyperFLOW)进行了混合并行改造,在计算节点间采用MPI消息传递机制,在节点内采用OpenMP共享内存的MPI+ OpenMP混合并行策略.首先分别实现了两种粒度(粗粒度和细粒度)的混合并行,并基于国产in-house集群采用CRM标模(约4000万网格单元)定常湍流算例对两种混合并行模式进行了测试和比较.结果 表明,粗粒度在进程数和分区数较少的小规模并行时具有效率优势,16线程时效率较高;而细粒度混合并行在大规模并行计算时具有优势,8线程时效率较高.其次,验证了混合并行在非定常计算情况下的可扩展性,采用机翼外挂物投放标模算例,分别生成3.6亿和28.8亿非结构重叠网格,采用对等的(P2P)网格读入模式和优化的重叠网格隐式装配策略,网格读入和重叠网格装配耗时仅需数十秒;采用3.6亿网格,完成了非定常状态效率测试及非定常分离过程的湍流流场计算,在in-house集群上12288核并行效率达到90%(以768核为基准),在天河2号上12288核并行效率达到70%(以384核为基准),数值模拟结果与试验结果符合良好.最后,在inhouse集群上采用28.8亿非结构重叠网格进行了4.9万核的并行效率测试,结果显示,4.9万核并行效率达到55.3%(以4096核为基准).

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号