首页> 外文会议>International Conference on Neural Information Processing >A Deep Neural Network Architecture Using Dimensionality Reduction with Sparse Matrices
【24h】

A Deep Neural Network Architecture Using Dimensionality Reduction with Sparse Matrices

机译:使用稀疏矩阵的维度减少的深度神经网络架构

获取原文

摘要

We present a new deep neural network architecture, motivated by sparse random matrix theory that uses a low-complexity embedding through a sparse matrix instead of a conventional stacked autoencoder. We regard autoencoders as an information-preserving dimensionality reduction method, similar to random projections in compressed sensing. Thus, exploiting recent theory on sparse matrices for dimensionality reduction, we demonstrate experimentally that classification performance does not deteriorate if the autoencoder is replaced with a computationally-efficient sparse dimensionality reduction matrix.
机译:我们提出了一种新的深度神经网络架构,通过稀疏的随机矩阵理论激励,该理论使用嵌入稀疏矩阵而不是传统的堆叠的AutoEncoder嵌入的低复杂性。我们将AutoEncoders视为一种信息保存的维度减少方法,类似于压缩感测中的随机投影。因此,利用最近关于稀疏矩阵的理论,用于减少维度,我们实验证明,如果用计算有效的稀疏维度减少矩阵替换了自动码器,则分类性能不会恶化。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号