【24h】

Language Embeddings for Typology and Cross-lingual Transfer Learning

机译:语言嵌入类型和交叉传输学习

获取原文

摘要

Cross-lingual language tasks typically require a substantial amount of annotated data or parallel translation data. We explore whether language representations that capture relationships among languages can be learned and subsequently leveraged in cross-lingual tasks without the use of parallel data. We generate dense embeddings for 29 languages using a denoising autoencoder, and evaluate the embeddings using the World Atlas of Language Structures (WALS) and two extrinsic tasks in a zero-shot setting: cross-lingual dependency parsing and cross-lingual natural language inference.
机译:交叉语言任务通常需要大量的注释数据或并行转换数据。 我们探索可以学习捕获语言之间关系的语言表示,并随后在不使用并行数据的情况下在交叉语言中利用。 我们使用Denoising AutoEncoder生成29种语言的密集嵌入,并使用World Atlas的语言结构(WAL)和零拍摄设置中的两个外在任务评估嵌入式:交叉语言依赖性解析和交叉语言自然语言推断。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号