首页> 中文期刊>情报资料工作 >AI治理中的算法解释及其实现方法研究

AI治理中的算法解释及其实现方法研究

     

摘要

[目的/意义]算法解释是AI治理的技术基础。正确认识AI治理中的算法解释与通用意义上的可解释性机器学习的差异性是实现负责任人工智能(Responsible Artificial Intelligence,RAI)的关键所在。[方法/过程]从AI事故的后解释、AI公平性的局部解释、以人为中心的算法解释三个方面阐述了AI治理中算法解释的需求特征,并结合IBM、微软、谷歌和阿里巴巴公司的治理实践分析算法解释方法的应用。[结果/结论]AI治理中的算法解释方法包括:以特征重要性分析和可视解释为代表的后解释实现方法、以局部扰动法和反事实解释为代表的局部解释实现方法、多目标进化优化的解释方法。常用的算法解释评价方法有以人为中心的定性评价、基于统计指标的定量评价和基于模糊认知的模糊评价。最后,对AI治理中算法解释的主要存在问题和未来研究应重视的发展方向进行总结。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号