首页> 外文会议>IEEE Conference on Virtual Reality and 3D User Interfaces >Virtual Garment Using Joint Landmark Prediction and Part Segmentation
【24h】

Virtual Garment Using Joint Landmark Prediction and Part Segmentation

机译:使用联合地标预测和零件分割的虚拟服装

获取原文

摘要

We present a novel approach that constructs 3D virtual garment models from photos. Our approach only requires two images as input, one front and one back. We first apply a multi-task learning network that jointly predicts fashion landmarks and parses a garment image into semantic parts. The predicted landmarks are used for deforming a template mesh to generate 3D garment model. The semantic parts are utilized for extracting color textures for the model.
机译:我们提出了一种新颖的方法,可以根据照片构建3D虚拟服装模型。我们的方法仅需要两张图像作为输入,一张正面和一张背面。我们首先应用一个多任务学习网络,该网络可以共同预测时尚界标并将服装图像解析为语义部分。预测的地标用于使模板网格变形以生成3D服装模型。语义部分用于提取模型的颜色纹理。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号