可解释性
可解释性的相关文献在1962年到2022年内共计353篇,主要集中在自动化技术、计算机技术、财政、金融、教育
等领域,其中期刊论文205篇、会议论文4篇、专利文献437122篇;相关期刊141种,包括征信、计算机工程与应用、计算机科学等;
相关会议4种,包括第四届临床评价方法与应用国际研讨会(2011)、BDTC2016中国大数据技术大会、2017中国人工智能大会等;可解释性的相关文献由1020位作者贡献,包括王士同、陈德旺、邓赵红等。
可解释性—发文量
专利文献>
论文:437122篇
占比:99.95%
总计:437331篇
可解释性
-研究学者
- 王士同
- 陈德旺
- 邓赵红
- 李超
- 王静远
- 黄允浒
- 刘婷婷
- 刘飞
- 司念文
- 屈丹
- 崔运鹏
- 常禾雨
- 张文林
- 张雄涛
- 成科扬
- 李先贤
- 李欢
- 李芳
- 栾小丽
- 王鑫
- 胡林
- 蒋云良
- 蔡际杰
- 詹永照
- 郑年年
- 严安丽
- 于凌霜
- 于敬
- 于海阔
- 于龙
- 任昭春
- 任鹏杰
- 伍文燕
- 何洁
- 余成
- 余晨洋
- 余莉萍
- 侯博议
- 侯彦荣
- 俞再亮
- 俞哲媛
- 俞建慧
- 傅洛伊
- 兰玉乾
- 冯广
- 刘元宁
- 刘布楼
- 刘总真
- 刘惊雷
- 刘江亭
-
-
李梦;
张小波;
刘绍波;
陈兴峰;
黄璐琦;
史婷婷;
杨瑞;
刘舒;
郑逢杰
-
-
摘要:
人参是传统中药材中的贵重品种,具有较高的经济价值。人参生长的地域性很强,不同产地人参有效成分含量存在差异,人参因“道地”与否,会导致其质量、医学效用和经济价值的差异,因此人参产地识别的意义重大。目前常通过磨粉提取等制备,再采用化学或光学等多种手段检验人参产地,但会造成样本破坏。而基于外观性状或芦头特征的鉴别,因主观性差异不能作为标准化的识别方法。如何用高精度、无损、快速检测识别的方法,对人参的产地进行识别分析,是该研究的主要立足点。通过采用高光谱成像技术,对已知产地信息的人参样本,通过获取从400~2 500 nm的反射光谱,经过基于白板的绝对和相对辐射校正处理,构建了高光谱反射率数据集。采用随机森林的机器学习方法,构建了基于高光谱数据的全光谱人参产地识别模型,并对不同尺度的地域划分规则分别开展了产地识别精度验证,发现不同产地的人参光谱有明显区别。其中东三省与否的产地识别精度,可以达到98.2%。同时利用随机森林基于决策树构建的优势,获得了人参产地识别的光谱重要性结果,为专用轻量化仪器研发指明特征光谱。高光谱人参产地识别研究作为严格的无损检测方式,将对人参等道地药材的产地识别、药材图谱指纹认知和挖掘、药材鉴定和质量评价等提供理论支撑和技术手段。
-
-
肖艳丽;
向有涛
-
-
摘要:
随着经济全球化发展和国内金融市场的逐步开放,中国金融市场也遭受着来自国外金融风险的威胁与挑战。充分考量中国金融市场部分特征化事实,结合中国的现实情况,以中国金融市场为研究对象,选取了13个代表性指标,利用2005年1月—2021年6月的数据构建了中国金融市场风险指数,并且通过事件匹配方法检验指数识别作用的有效性。进一步,运用XGBoost模型预测中国金融市场极端风险,采用多种评价指标将其与传统的SVM、GBRT、RF和MLP模型进行比较研究,并利用配对样本T检验和弗里德曼检验对各个模型预测效果的差异进行显著性检验。最后结合SHAP和LIME方法展示了不同特征指标对中国金融市场风险的贡献度。实证结果表明:(1)所构建的指数较好地符合了我国金融市场风险变化的实际情况;(2)XGBoost预测模型对于极端金融风险样本识别能力较强、准确性较高,与其余模型相比,其预测性能更加优异,而且具有明显的统计检验意义。(3)利用Shapley和LIME方法挖掘出了影响中国金融市场风险的主要因素及其时变特征,且阈值效应的发现有利于金融部门对金融市场风险进行针对性的审慎监管。
-
-
李硕;
陈春雨;
刘文龙
-
-
摘要:
随着产业数字化发展,智能养殖技术也是其中重要一环。为了防控各类疾病、改良品种质量、肉制品质量溯源以及改善农业虚假假保险索赔现象,可通过移动式或固定式的智能终端设备进行实时、精准的智能化采集与录入大群体的生产数据,实现快速、精准确定猪只个体身份。本系统通过对猪只数据进行数据采集,在树莓派这一优秀的硬件基础之上,以轻量级的深度神经网络推理引擎移动神经网络(MNN)作为支撑,采用速度更快的MobileNet网络对猪只耳标数据进行检测,并且利用ZXing技术识别耳标快速反应(QR)二维码,完成对猪只个体身份的识别,最终完成移动端的猪只耳标检测、识别。同时为了更好地了解神经网络在耳标检测时关注图像的任意区域,使用类激活映射(CAM)的可解释性方法可视化卷积神经网络感兴趣区域。
-
-
成科扬;
王宁;
崔宏纲;
詹永照
-
-
摘要:
目前,深度学习模型已被广泛部署于各个工业领域。然而,深度学习模型具有的复杂性与不可解释性已成为其应用于高风险领域最主要的瓶颈。在深度学习模型可解释性方法中,最重要的方法是可视化解释方法,其中注意力图是可视化解释方法的主要表现方式,可通过对样本图像中的决策区域进行标注,来直观地展示模型决策依据。目前已有的基于注意力图的可视化解释方法中,单一模型注意力图存在标注区域易出现标注错误而造成可视化可解释性置信度不足的问题。针对上述问题,文中提出了一种基于局部注意力图互迁移的可解释性优化方法,用于提升模型注意力图的标注准确度,展示出精准的决策区域,加强视觉层面对模型决策依据的可解释性。具体表现为:采用轻量模型构建互迁移网络结构,于单一模型层间提取特征图并进行叠加,对全局注意力图进行局部划分,使用皮尔逊相关系数对模型间对应的局部注意力图进行相似度度量,随后将局部注意力图进行正则化并结合交叉熵函数对模型注意力图进行迁移。实验结果表明,所提算法显著提升了模型注意力图标注的准确性,并分别实现了28.2%的平均下降率和29.5%的平均增长率,与最先进的算法相比,其在平均下降率方面实现了3.3%的提升。实验结果表明,所提算法能成功地找出样本图像中预测标签最相关区域,而不局限于视觉可视化区域;与现有的同类方法相比,所提方法能更准确地揭示原始CNN模型的决策依据。
-
-
冯广;
潘庭锋;
伍文燕
-
-
摘要:
线上线下结合的教学模式是未来教学的一个趋势,每一个学生的学习行为会直接影响学习结果,因此研究学习者学习行为对学习成绩的影响程度是目前的研究重点。目前常见的评价模型存在可信程度较低、可解释性较弱等问题,本文使用基于证据推理的贝叶斯网络(Bayes Network,BN)能够有效地解决这一问题。把方法应用在学习行为分析上,与常用的机器模型和深度学习模型进行比较,表现出更低的误差和更强的可解释性。
-
-
刘桐;
顾小清
-
-
摘要:
教育是人工智能的重要应用领域,探索教育中人工智能的可解释性,是让人工智能在教育领域中更具“责任感”的重要议题。该文从教育中人工智能应用的现实问题出发,重点回应教育中人工智能的可解释性是什么,做了什么,以及未来走向三个问题。首先,以数据、任务、模型、人四个关键要素为切入点,分析阐述教育中人工智能的可解释性内涵;之后纵观教育中人工智能的可解释工作的演进过程,分析得出已有工作在教育意义注入、模型趋于复杂以及单向解释信息传递等方面的局限性;最后,从知识联邦、模型融生、人在回路三个角度,阐释教育中人工智能可解释性的未来发展方向。
-
-
李潇睿;
班晓娟;
袁兆麟;
乔浩然
-
-
摘要:
为了系统性地归纳工业场景下时序预测方法及应用,首先介绍了统计学习、集成学习、深度学习三类时序预测算法,并围绕工业数据分析与决策问题,重点分析了循环神经网络、卷积神经网络、编码−解码器模型三类深度学习模型的优缺点及适用的工业应用场景.为了清晰全面地评估模型性能,介绍了面向点预测、序列预测问题的统计指标和误差计算方法.同时,整理了经典的公开工业数据集,以便研究者快速评估算法性能.并以过程工业中的采矿、冶金为例,介绍了时序预测方法在真实工业场景下的应用和效果.最后,总结了工业领域中应用深度学习技术所面临的低稳健性和弱可解释性等问题,并探讨了工业场景下时序预测方法研究的未来发展方向.
-
-
聂友伦
-
-
摘要:
目前主流人工智能司法属于“数据驱动”类型,其试图从海量司法数据中发现相关性并形成算法模型,以之预测待决案件的结果。人工智能司法的理论预设为“基于充分数据,通过科学算法,确保结果公正”。然而,预设与现实之间的差距巨大,人工智能司法的技术逻辑在数据、算法与结果各层面都存在足以使其断裂的矛盾:第一,样本的结构性缺失、潜在因素的标记不足、低质数据的大量存在,不能满足作为技术前提的数据充分性要求;第二,虚假相关的无法排除、算法歧视的隐性生成、预测结果的不特定性,使得算法模型难以获得科学性保证;第三,价值判断的被动失效、先例数据的隐含错误、地方差异的强行拉平,构成了结果非公正性的来源,严重降低了实践应用的可接受度。以上矛盾形成了人工智能司法自我拆解的离心力。未来人工智能司法的发展重点应被置于提高算法模型的可解释性方面。
-
-
高苏;
鲍君忠;
王昕;
王利东
-
-
摘要:
针对管理决策领域中的等级分析问题,构建了面向语义可解释性的有序聚类方法。首先,在获得样本的优势度的基础上,结合模糊描述和K-modes聚类方法建立海员幸福感指数的有序聚类方法;然后,在公理模糊集框架下对有序聚类结果赋予相应的语义解释,以此形成一种从定量到定性的决策辅助方法;最后,以我国海员职业幸福感指数的9175份有效调查问卷为研究样本,通过所构建的有序聚类方法得到海员职业幸福感指数的等级划分及其相应的语义描述,并分析了影响海员职业幸福感指数的内在原因。分析表明,所提方法不仅可以产生满足用户指定约束的有序聚类结果,而且聚类结果具有可解释性、可理解性,同时具有良好的辅助决策的价值。
-
-
肖立志
-
-
摘要:
回顾了油气人工智能研究进展,分析其面临的一些关键问题。将油气人工智能研究分成两个层级,即学术型油气人工智能研究和工业级油气人工智能研究,两者面临不同的问题和挑战。对于学术型油气人工智能应用场景,主要是关心算法及其相关理论应用,着重于解决智能点的局部问题;对于工业级人工智能应用场景,更多的要关心数据治理、数据集、平台、多源多尺度多模态数据融合建模、数据驱动与机理模型融合建模以及机器学习模型的可解释性等问题。针对数据驱动与机理模型融合问题,提出3种途径,即算法融合、评价方法融合、数据集融合,并给出实验验证。针对油气人工智能模型的可解释性问题,指出工业级油气人工智能必须具有可解释性,并提出初步解决方案,包括建模前、建模中、建模后的多级解释模型。最后,作者认为,探寻工业级人工智能理论和应用场景发展之路,必须厘清人工智能时代“物理世界”、“数字世界”、“人类认知世界”、“机器认知世界”和“机器正在改造的世界”之间的互动关系。
-
-
-
-
-
刘为民;
崔学军;
何丽云;
刘保延;
罗文舒;
白文静;
毛文超;
方积乾
- 《第四届临床评价方法与应用国际研讨会(2011)》
| 2011年
-
摘要:
患者报告结局是一类直接以患者对其自身健康状况的感受来测量与评价疾病及其后果的结局指标,广泛用于临床各科,本文介绍了PRO目前研究情况,PRO在中医药领域的应用,应该如何评估,并重点说明用于PRO评估的EMPRO及其应用情况),EMPRO包含了8个方面的内容:概念和测量模型、信度、效度、反应性、可解释性、负担、其他的操作方式和文化和语言调适.研究表明,EMPRO具有较高的信度、效度和可靠性,已经用于评估SF-36,诺丁汉健康量表,COOP/WONCA量表,欧洲五维健康量表和EORTC-QLQ-C30生存质量问卷等量表.