CUDA; GPU Direct RDMA; InfiniBand; MPI;
机译:MVAPICH2-GPU:针对InfiniBand集群优化了GPU与GPU的通信
机译:GPUDirect异步:探索适用于InfiniBand集群的GPU同步通信技术
机译:基于InfiniBand的Mellanox / NVIDIA GPUDirect的开发-一种GPU与GPU之间通信的新模型
机译:在Infiniband GPU集群上设计节点间MPI通信的高效小消息传输机制
机译:使用InfiniBand,加速器和协处理器为多核集群设计高效的MPI和UPC运行时。
机译:高性能数据集群:GPURASCMPI和OpenMP实现的性能比较分析
机译:使用共享内存支持Windows优化多核InfiniBand群集上的mpI单面通信