【24h】

Instruction Prefetch for Improving GPGPU Performance

机译:用于提高GPGPU性能的指令预取

获取原文
获取原文并翻译 | 示例
获取外文期刊封面目录资料

摘要

Like many processors, GPGPU suffers from memory wall. The traditional solution for this issue is to use efficient schedulers to hide long memory access latency or use data prefetch mech-anism to reduce the latency caused by data transfer. In this paper, we study the instruction fetch stage of GPU's pipeline and analyze the relationship between the capacity of GPU kernel and instruction miss rate. We improve the next line prefetch mechanism to fit the SIMT model of GPU and determine the optimal parameters of prefetch mechanism on GPU through experiments. The experimental result shows that the prefetch mechanism can achieve 12.17% performance improvement on average. Compared with the solution of enlarging I-Cache, prefetch mechanism has the advantages of more beneficiaries and lower cost.
机译:像许多处理器一样,GPGPU遭受了记忆墙。 此问题的传统解决方案是使用有效的调度程序来隐藏长内存访问延迟或使用数据预取机制 - anism来减少数据传输引起的延迟。 本文研究了GPU管道指令获取阶段,分析了GPU内核能力与指令错号之间的关系。 我们提高了下一行预取机制,以适应GPU的SIMT模型,并通过实验确定GPU上的预取机制的最佳参数。 实验结果表明,预取机理可平均达到12.17%的性能提高。 与扩大i高速缓存的解决方案相比,预取机制具有更多受益者和更低的成本。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号