首页> 中文期刊>远程教育杂志 >可解释学习者模型:可信个性化学习的技术关键

可解释学习者模型:可信个性化学习的技术关键

     

摘要

基于人工智能的个性化学习技术一直是智能教育领域的研究热点,其技术挑战在于如何构建全面精准的学习者模型。在非常注重公平、伦理和责任的教育领域,人工智能的“黑箱”本质可能会阻碍人对机器决策的信任,因此构建透明和可解释的学习者模型尤为重要。通过对学习者模型特征、结构和决策结果的解释,可以让教育关益者理解其动机,接纳其决策,实现更好地人机协作。该研究将可解释人工智能的技术理念延伸至个性化学习中,通过分析其研究现状,阐明实现可解释学习者模型的必要性,并剖析现有的可解释学习者模型实例的技术原理,最后提出可解释学习者模型的基本框架,旨在将可解释性作为学习者建模的关键原则。对可解释学习者模型的研究可为个性化学习系统的设计、开发、应用到评估的整个周期实现可解释性提供借鉴及参考,驱动可信个性化学习成为可能。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号