多智能体强化学习这个领域中,很多Paper都使用的一个环境是——星际争多智能体挑战(StarCraft Multi-Agent Challenge, SMAC)。最近也配置了这个环境,把中间一些步骤记录下来。2022.12.26
文章目录
- 1 环境介绍
- 1.1 相关论文
- 1.2 项目代码地址
- 2 安装过程
- 3 相关文献下载地址
- 4 算法复现部分结果
- 4.1 2s3z地图
- 4.2 3m地图
- 4.3 8m地图
1 环境介绍
1.1 相关论文
《The StarCraft Multi-Agent Challenge》。
1.2 项目代码地址
SMAC github地址:https://github.com/oxwhirl/smac
gitee地址:https://gitee.com/icze1i0n/smac
2 安装过程
按照官方的说明安装,还算顺利,我是在Win系统安装的。
去大陆官网下载《星际争霸II》游戏
安装用pip命令安装smac库,中间pysc2也自动安装好了。
如果星际争霸安装路径不是默认的,需要在系统中添加一个叫做SC2PATH
的环境变量,指向安装路径。
设置好后就能跑起来了
3 相关文献下载地址
- IQL: Independent Q-Learning
- QMIX: Monotonic Value Function Factorisation for Deep Multi-Agent Reinforcement Learning
- Value-Decomposition Networks For Cooperative Multi-Agent Learning
- Counterfactual Multi-Agent Policy Gradients
- QTRAN: Learning to Factorize with Transformation for Cooperative Multi-Agent Reinforcement Learning
- Learning Multiagent Communication with Backpropagation
- From Few to More: Large-scale Dynamic Multiagent Curriculum Learning
- Multi-Agent Game Abstraction via Graph Attention Neural Network
- MAVEN: Multi-Agent Variational Exploration
4 算法复现部分结果
下面这些结果印象中是国内一个公司的实验室复现的,github地址在这里。