【24h】

Interpretable Textual Neuron Representations for NLP

机译:NLP的可解释性文本神经元表示

获取原文
获取原文并翻译 | 示例

摘要

Input optimization methods, such as Google Deep Dream, create interpretable representations of neurons for computer vision DNNs. We propose and evaluate ways of transferring this technology to NLP. Our results suggest that gradient ascent with a gumbel soft-max layer produces n-gram representations that outperform naive corpus search in terms of target neuron activation. The representations highlight differences in syntax awareness between the language and visual models of the Imaginet architecture.
机译:输入优化方法(例如Google Deep Dream)可为计算机视觉DNN创建可解释的神经元表示形式。我们提出并评估了将该技术转移到NLP的方法。我们的研究结果表明,带有树状软最大层的梯度上升产生的n-gram表示在目标神经元激活方面胜过幼稚的语料库搜索。这些表示突出显示了Imaginet体系结构的语言和视觉模型在语法意识上的差异。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号