首页> 中文期刊>信息技术与标准化 >人工智能可解释性与评估方法

人工智能可解释性与评估方法

     

摘要

由于AI缺乏可解释性,人们无法得知AI作出错误决策的原因,也很难直接改进AI模型,因此对人工智能可解释性的研究非常必要.通过研究提出了 AI可解释性的概念和研究的必要性,综合目前主流的研究成果,提出了实现AI可解释性的建模前、建模中、建模后三类方法,在此基础上提出AI模型可解释性的评估方法.

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号