首页> 中文学位 >多智能体的协作与规划研究及其在RoboCup中的应用
【6h】

多智能体的协作与规划研究及其在RoboCup中的应用

代理获取

目录

文摘

英文文摘

声明

第一章绪论

1.1研究背景

1.2 RoboCup研究现状

1.3研究目的与意义

1.4 MAS主要研究内容

1.5本文结构组成

第二章RoboCup仿真比赛系统

2.1 RoboCup仿真环境介绍

2.2 SoccerServer仿真环境模型

2.2.1比赛场地和球员

2.2.2球员的动作

2.2.3球员的感知

2.3 RoboCup仿真环境的特点

2.4小结

第三章MAS协作与规划

3.1 MAS体系结构

3.1.1集中式结构

3.1.2分布式结构

3.1.3混合式结构

3.2分层结构模型

3.2.1通迅层

3.2.2基本动作层

3.2.3可选动作评价层

3.2.4决策层

3.2.5世界模型

3.3阵形规划研究

3.3.1角色的概念

3.3.2静态阵形

3.3.3动态阵形

3.4基于合作意愿矩阵的规划协作策略

3.4.1基于合作意愿矩阵的规划协作策略

3.4.2规划协作策略的应用

3.5小结

第四章强化学习理论及应用

4.1强化学习模型

4.2模糊Q学习

4.2.1 Q学习算法

4.2.2模糊Q学习算法

4.2.3模糊Q学习在RoboCup中的应用

4.3基于CA-FCMAC的Q学习算法

4.3.1传统的CMAC

4.3.2 CA-FCMAC

4.3.3 CA-FCMAC Q学习

4.3.4 CA-FCMAC Q学习的应用

4.4小结

第五章基于先验知识的内在激励强化学习

5.1基于先验知识的强化学习

5.2内在激励强化学习

5.2.1内在激励强化学习简述

5.2.2内在激励强化学习算法

5.3基于先验知识的内部激励强化学习算法

5.4算法在RoboCup协作中的应用

5.4.1二对一问题

5.4.2三对二问题

5.5小结

第六章结论与展望

6.1本文总结

6.2展望

致谢

参考文献

附录:作者在攻读硕士学位期间发表的论文

展开▼

摘要

近年来,有关Multi-agent系统(MAS)与分布式人工智能(DAI)的研究,已经成为人工智能领域的重要研究方向之一。而RoboCup则是以MAS和分布式人工智能为主要研究背景,其使命就是促进分布式人工智能与智能机器人技术的研究与教育。该研究方向要求在一个实时动态变化的和不可预测的环境中,拥有自主能力的Agent,作为团队的一部分,能自动地进行有效的动作,完成整个队伍的目标。 本文以RoboCup仿真比赛为检验平台,以多智能体系统为研究对象,主要进行了以下工作: 首先,选择智能体间协作作为目标任务,在对已有的协作策略进行研究的基础上,分别从静态和动态出发,研究了基于静态阵形和动态阵形的阵形变化策略,有效的增强了球队的整体实力;并且还采用了基于合作意愿矩阵的规划协作策略,很好的改善了球队整体协作进攻能力。 其次,由于Q学习不能适用于连续状态空间和动作空间的学习,随着状态空间的增大,Q值在内存中的存储以及查询变得困难,会导致维数灾难,且传统的强化学习不具有泛化能力,这些缺点限制了它在复杂多变的环境中的应用。为了解决这些存在的问题,采用模糊Q学习算法以及基于信度分配模糊CMAC(CA-FCMAC)的Q学习算法,并将算法用于RoboCup仿真比赛中,通过实验证明改进后算法有效的优化了Agent个体技术。 最后,在MAS中,由于外部环境提供信息较少,强化学习的学习效率通常较低。采用具有先验知识的算法来优化学习状态,提高学习效率。并结合心理学中的内在激励思想,提出基于先验知识的内在激励强化学习,并将此算法运用到MAS局部配合技术的训练中,实验表明,这种算法能够提高球队的局部协作能力。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号