首页> 外文期刊>IEEE Transactions on Image Processing >Self-Guiding Multimodal LSTM—When We Do Not Have a Perfect Training Dataset for Image Captioning
【24h】

Self-Guiding Multimodal LSTM—When We Do Not Have a Perfect Training Dataset for Image Captioning

机译:自指导多峰LSTM-当我们没有完美的图像字幕训练数据集时

获取原文
获取原文并翻译 | 示例
           

摘要

In this paper, a self-guiding multimodal LSTM (sgLSTM) image captioning model is proposed to handle an uncontrolled imbalanced real-world image-sentence dataset. We collect a FlickrNYC dataset from Flickr as our testbed with 306,165 images and the origina
机译:本文提出了一种自导多模态LSTM(sgLSTM)图像字幕模型,用于处理不受控制的不平衡真实世界图像句子数据集。我们从Flickr收集了FlickrNYC数据集作为测试平台,其中包含306,165张图像和原始图像。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号