机译:深度神经网络压缩的平行群体知识蒸馏
Texas State Univ Dept Comp Sci San Marcos TX 78666 USA;
Texas State Univ Dept Comp Sci San Marcos TX 78666 USA;
Texas State Univ Dept Comp Sci San Marcos TX 78666 USA;
Texas State Univ Dept Comp Sci San Marcos TX 78666 USA;
Computational modeling; Training; Task analysis; Quantization (signal); Neural networks; Deep learning; Hardware; Deep neural networks; model compression; knowledge distillation; parallel training;
机译:探索边缘神经网络探讨辉辉连续体的深度神经网络的压缩和并行化技术 - 评论
机译:通过并行修剪量化进行深度神经网络压缩
机译:基于边缘设备知识传输的深度神经网络压缩算法
机译:神经网络加速度的渐进块知识蒸馏
机译:通过知识蒸馏压缩深神经网络
机译:使用细心知识蒸馏解释神经网络
机译:深度神经网络压缩的平行群体知识蒸馏