首页> 中文期刊>数据挖掘 >基于LIME的改进机器学习可解释性方法

基于LIME的改进机器学习可解释性方法

     

摘要

随着机器学习技术不断取得突破性进展,越来越多的决策交给复杂自动化的机器学习算法去做。但这些高性能的模型就像黑盒子,缺乏决策逻辑的透明度和可解释性。LIME (Local Interpretable Model-agnostic Explanation)是由Marco Tulio Ribeiro等人提出的一种XAI (Explainable Artificial In-telligence)方法,对于复杂的黑盒模型,LIME使用可解释性模型(线性模型)对黑盒模型进行局部近似,局部解释复杂模型的决策行为。LIME中使用的线性模型(Ridge回归等)学习能力较弱,不能很好地局部逼近复杂模型。对于复杂树模型(XGB、RF等)本文提出采用可解释性良好的广义加性树模型EBM去近似它们的局部行为,而对于复杂神经网络模型,本文提出利用广义加性神经网络模型GAMINET去局部逼近其局部行为。EBM (Explainable Boosting Machine)和GAMNET (广义加性神经网络模型)均具备可解释性并且拥有更强的学习能力,能更好地逼近复杂机器学习模型。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号