首页> 外文会议>European conference on computer vision >Automatic Segmentation of Sign Language into Subtitle-Units
【24h】

Automatic Segmentation of Sign Language into Subtitle-Units

机译:将手语的自动分割为字幕单位

获取原文

摘要

We present baseline results for a new task of automatic segmentation of Sign Language video into sentence-like units. We use a corpus of natural Sign Language video with accurately aligned subtitles to train a spatio-temporal graph convolutional network with a BiLSTM on 2D skeleton data to automatically detect the temporal boundaries of subtitles. In doing so, we segment Sign Language video into subtitle-units that can be translated into phrases in a written language. We achieve a ROC-AUC statistic of 0.87 at the frame level and 92% label accuracy within a time margin of 0.6s of the true labels.
机译:我们向基线结果提供了一项新的手语视频的新任务,进入句子等单位。 我们使用自然标志语言视频的语料库,准确对齐字幕,以2D骨架数据上的Bilstm训练时空图形卷积网络,以自动检测字幕的时间界限。 在这样做时,我们将标记语言视频分段为可以以书面语言转换为短语的字幕单元。 我们在帧级别实现0.87的Roc-Auc统计,在真实标签0.6s的时间边缘内为92%标签精度。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号