首页> 外文OA文献 >Learning to Generate Time-Lapse Videos Using Multi-stage Dynamic Generative Adversarial Networks
【2h】

Learning to Generate Time-Lapse Videos Using Multi-stage Dynamic Generative Adversarial Networks

机译:学习使用多级动态生成对冲网络生成时间流逝视频

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Taking a photo outside, can we predict the immediate future, extit{e.g.},how would the cloud move in the sky? We address this problem by presenting agenerative adversarial network (GAN) based two-stage approach to generatingrealistic time-lapse videos of high resolution. Given the first frame, ourmodel learns to generate long-term future frames. The first stage generatesvideos of realistic contents for each frame. The second stage refines thegenerated video from the first stage by enforcing it to be closer to realvideos with regard to motion dynamics. To further encourage vivid motion in thefinal generated video, Gram matrix is employed to model the motion moreprecisely. We build a large scale time-lapse dataset, and test our approach onthis new dataset. Using our model, we are able to generate realistic videos ofup to $128imes 128$ resolution for 32 frames. Quantitative and qualitativeexperiment results have demonstrated the superiority of our model over thestate-of-the-art models.
机译:拍摄外面的照片,我们可以预测立即的未来, texit {例如},云在天空中如何移动?通过呈现基于迭代的对抗网络(GaN)的两阶段方法来解决这一问题,以产生高分辨率的造型型延时视频。鉴于第一帧,OuRModel学会生成长期未来帧。第一阶段生成每个帧的现实内容的视频。第二阶段通过强制执行关于运动动力学的RealVideoS更接近第一阶段,从第一阶段改进第二阶段。为了进一步鼓励在Final生成的视频中生动运动,采用克矩阵来更模拟运动。我们构建了一个大规模的时间流逝数据集,并在新数据集上测试我们的方法。使用我们的模型,我们能够为32帧产生128美元的128美元分辨率的现实视频。定量和质量考验结果表明了我们在艺术内部模型上的模型的优越性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号