【24h】

GEval: Tool for Debugging NLP Datasets and Models

机译:GEval:调试NLP数据集和模型的工具

获取原文

摘要

This paper presents a simple but general and effective method to debug the output of machine learning (ML) supervised models, including neural networks. The algorithm looks for features that lower the evaluation metric in such a way that it cannot be ascribed to chance (as measured by their p-values). Using this method - implemented as GEval tool -you can find: (1) anomalies in test sets, (2) issues in preprocessing, (3) problems in the ML model itself. It can give you an insight into what can be improved in the datasets and/or the model. The same method can be used to compare ML models or different versions of the same model. We present the tool, the theory behind it and use cases for text-based models of various types.
机译:本文提出了一种简单但通用有效的方法来调试机器学习(ML)监督模型(包括神经网络)的输出。该算法寻找降低评估指标的功能,以使其无法归因于偶然性(由其p值衡量)。使用这种作为GEval工具实现的方法,您会发现:(1)测试集中的异常,(2)预处理中的问题,(3)ML模型本身中的问题。它可以让您深入了解可以在数据集和/或模型中进行哪些改进。可以使用相同的方法比较ML模型或相同模型的不同版本。我们介绍了该工具,其背后的理论以及各种类型的基于文本的模型的用例。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号