【24h】

Pay-Per-Request Deployment of Neural Network Model Using Serverless Architectures

机译:使用无服务器架构的按需付费的神经网络模型部署

获取原文

摘要

We demonstrate the serverless deployment of neural networks for model inferencing in NLP applications using Amazon's Lambda service for feedforward evaluation and DynamoDB for storing word embeddings. Our architecture realizes a pay-per-request pricing model, requiring zero ongoing costs for maintaining server instances. All virtual machine management is handled behind the scenes by the cloud provider without any direct developer intervention. We describe a number of techniques that allow efficient use of serverless resources, and evaluations confirm that our design is both scalable and inexpensive.
机译:我们演示了使用Amazon的Lambda服务进行前馈评估以及使用DynamoDB进行单词嵌入存储的NLP应用程序中用于模型推理的神经网络的无服务器部署。我们的体系结构实现了按请求付费的定价模型,需要零维护的持续成本来维护服务器实例。云提供商将在后台处理所有虚拟机管理,而无需任何开发人员直接干预。我们描述了许多技术,可以有效利用无服务器资源,并且评估证实我们的设计既可扩展又价格便宜。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号