首页> 中文期刊> 《计算机系统应用》 >融合机器学习与知识推理的可解释性框架

融合机器学习与知识推理的可解释性框架

         

摘要

针对基于规则的可解释性模型可能出现的规则无法反映模型真实决策情况的问题, 提出了一种融合机器学习和知识推理两种途径的可解释性框架. 框架演进目标特征结果和推理结果, 在二者相同且都较为可靠的情况下实现可解释性. 目标特征结果通过机器学习模型直接得到, 推理结果通过子特征分类结果结合规则进行知识推理得到, 两个结果是否可靠通过计算可信度来判断. 使用面向液基细胞学检查图像的融合学习与推理的某类宫颈癌细胞识别案例对框架进行验证, 实验表明, 该框架能够赋予模型的真实决策结果以可解释性, 并在迭代过程中提升了分类精度. 这帮助人们理解系统做出决策的逻辑, 以及更好地了解结果可能失败的原因.

著录项

  • 来源
    《计算机系统应用》 |2021年第7期|22-31|共10页
  • 作者

    李迪媛; 康达周;

  • 作者单位

    南京航空航天大学 计算机科学与技术学院/人工智能学院 南京 211106;

    南京航空航天大学 高安全系统的软件开发与验证技术工信部重点实验室 南京 211106;

    软件新技术与产业化协同创新中心 南京 210023;

  • 原文格式 PDF
  • 正文语种 chi
  • 中图分类
  • 关键词

    可解释性; 机器学习; 知识推理;

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号