Northeastern University;
Cloud; Concurrent kernel execution; Empirical model; Gpu; Interference; Quality-of-service;
机译:PRAND:GPU加速的并行随机数生成库:使用最可靠的算法并应用现代GPU和CPU的并行性
机译:KernelHive:基于工作流的新框架,用于使用具有CPU和GPU的集群和工作站进行多层高性能计算
机译:gpuMF:用于GPU上的并行混合元启发式技术的框架,用于最小化多电平逆变器中的谐波
机译:CIAO:针对GPU的具有缓存干扰感知吞吐量的体系结构和调度
机译:现代GPU的提示辅助调度
机译:一种基于感知流量优先的链路调度算法用于缓解多个无线人体局域网中的干扰
机译:GPGPU任务调度技术在基于RPC的GPU虚拟化环境中降低多个GPGPU任务的性能偏差