...
首页> 外文期刊>JMLR: Workshop and Conference Proceedings >The Gradient Complexity of Linear Regression
【24h】

The Gradient Complexity of Linear Regression

机译:线性回归的梯度复杂性

获取原文
           

摘要

We investigate the computational complexity of several basic linear algebra primitives, including largest eigenvector computation and linear regression, in the computational model that allows access to the data via a matrix-vector product oracle. We show that for polynomial accuracy, $Theta(d)$ calls to the oracle are necessary and sufficient even for a randomized algorithm. Our lower bound is based on a reduction to estimating the least eigenvalue of a random Wishart matrix. This simple distribution enables a concise proof, leveraging a few key properties of the random Wishart ensemble.
机译:我们在计算模型中调查几个基本线性代数基元的计算复杂性,包括最大的特征向量计算和线性回归,该计算模型通过矩阵矢量产品Oracle访问数据。我们表明,对于多项式准确性,即使对于随机算法,也需要对Oracle的$ Theta(d)$呼叫。我们的下限基于减少估计随机愿望矩阵的最小特征值。这种简单的分布使得能够简洁,利用随机愿望集合的一些关键属性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号