栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

MADDPG—建立自己的游戏环境(一)

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

MADDPG—建立自己的游戏环境(一)

MADDPG安装

上一篇我们已经成功安装了MPE环境,可以查看我的上一篇 MPE环境安装-强化学习的小demo
MADDPG的实验环境是MPE,因此,上边这一步是必须的。接下来,就可以安装MADDPG了。
先附上官方论文和项目地址
论文:Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments.
官方项目地址:Multi-Agent Deep Deterministic Policy Gradient (MADDPG)

准备工作

这一切都可以在你已经创建好的MPE的conda虚拟环境中安装。(conda管理环境真的很方便)

  • MPE安装
  • TensorFlow==1.14,可以使用镜像源快速安装:pip install tensorflow -i https://pypi.douban.com/simple
准备安装

下载MADDPG,和MPE环境安装-强化学习的小demo的安装方法一样。在这里,我选择使用命令行下载安装。

cd 到之前创建的MPE文件夹,
~/MPE$    git clone https://ghproxy.com/https://github.com/openai/maddpg

下载结束之后,cd maddpg/进入刚才下载好的文件夹,pip install -e .就完成安装啦。

测试环境

和MPE环境安装-强化学习的小demo一样,我在这里依旧选择使用pycharm来进行编辑。
运行maddpg--experiment---train.py文件,如下图:
运行成功就是下边这样啦!已经开始训练啦!

如果你想看一下运行的MPE小球的动画,可以更改parser.add_argument("--display", action="store_true", default=False)参数的default=False为default=True
你就可以看到这样的画面了!

安装小Tips
  • 确保你的MPE环境和MADDPG在同一个project下,因为MADDPG使用的实验环境就是MPE
  • 确保你的gym,tensorflow版本都是正确的
  • 如果还不成功,上网问一问,大家肯定有人和你遇到同样的问题并且想方设法解决了!

怎么样,你的智能体小球也动起来了吗!!!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/664446.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号