Skip to content

Latest commit

 

History

History
364 lines (272 loc) · 18.1 KB

README_zh.md

File metadata and controls

364 lines (272 loc) · 18.1 KB

PyPI PyPI - Python Version Anaconda-Server Badge Anaconda-Server Badge Anaconda-Server Badge Code style: black

Hits-of-Code codecov

Documentation Status Read the Docs

GitHub Org's stars GitHub stars GitHub forks GitHub commit activity GitHub issues GitHub pulls Contributors GitHub license

Embark slack badge

OpenRL-v0.2.1 is updated on Dec 20, 2023

The main branch is the latest version of OpenRL, which is under active development. If you just want to have a try with OpenRL, you can switch to the stable branch.

欢迎来到OpenRL

中文文档 | English | Documentation

用心做好强化学习框架,欢迎提出宝贵意见

OpenRL是一个开源的通用强化学习研究框架,支持单智能体、多智能体、离线强化学习、自博弈训练、自然语言等多种任务的训练。 OpenRL基于PyTorch进行开发,目标是为强化学习研究社区提供一个简单易用、灵活高效、可持续扩展的平台。 目前,OpenRL支持的特性包括:

  • 提供简单易用通用的接口,支持各种任务和多样的环境训练
  • 支持单智能体、多智能体训练
  • 支持通过专家数据进行离线强化学习训练
  • 支持自博弈训练
  • 支持自然语言任务(如对话任务)的强化学习训练
  • 支持DeepSpeed
  • 支持竞技场功能,可以在多智能体对抗性环境中方便地对各种智能体(甚至是及第平台上提交的智能体)进行评测。
  • 支持从Hugging Face上导入模型和数据。支持加载Hugging Face上Stable-baselines3的模型来进行测试和训练。
  • 提供用户自有环境接入OpenRL的详细教程.
  • 支持LSTM,GRU,Transformer等模型
  • 支持多种训练加速,例如:自动混合精度训练,半精度策略网络收集数据等
  • 支持用户自定义训练模型、奖励模型、训练数据以及环境
  • 支持gymnasium环境
  • 支持Callbacks,可以用于实现日志记录、保存、提前停止等各种功能
  • 支持字典观测空间
  • 支持wandbtensorboardX等主流训练可视化工具
  • 支持环境的串行和并行训练,同时保证两种模式下的训练效果一致
  • 中英文文档
  • 提供单元测试和代码覆盖测试
  • 符合Black Code Style和类型检查

OpenRL目前支持的算法(更多详情请参考 Gallery):

OpenRL目前支持的环境(更多详情请参考 Gallery):

该框架经过了OpenRL-Lab的多次迭代并应用于学术研究,目前已经成为了一个成熟的强化学习框架。 OpenRL-Lab将持续维护和更新OpenRL,欢迎大家加入我们的开源社区,一起为强化学习的发展做出贡献。 关于OpenRL的更多信息,请参考文档

目录

为什么选择使用OpenRL

这里我们提供了一个表格,比较了OpenRL和其他常用的强化学习库。 OpenRL采用模块化设计和高层次的抽象,使得用户可以通过统一的简单易用的接口完成各种任务的训练。

强化学习库 自然语言任务/RLHF 多智能体训练 自博弈训练 离线强化学习 DeepSpeed
OpenRL ✔️ ✔️ ✔️ ✔️ ✔️
Stable Baselines3
Ray/RLlib ✔️ ✔️ ✔️
DI-engine ✔️ not fullly supported ✔️
Tianshou not fullly supported not fullly supported ✔️
MARLlib ✔️ not fullly supported
MAPPO Benchmark ✔️
RL4LMs ✔️
trlx ✔️ ✔️
trl ✔️ ✔️
TimeChamber ✔️

安装

用户可以直接通过pip安装OpenRL:

pip install openrl

如果用户使用了Anaconda或者Miniconda,也可以通过conda安装OpenRL:

conda install -c openrl openrl

想要修改源码的用户也可以从源码安装OpenRL:

git clone https://github.com/OpenRL-Lab/openrl.git && cd openrl
pip install -e .

安装完成后,用户可以直接通过命令行查看OpenRL的版本:

openrl --version

Tips :无需安装,通过Colab在线试用OpenRL: Open In Colab

使用Docker

OpenRL目前也提供了包含显卡支持和非显卡支持的Docker镜像。 如果用户的电脑上没有英伟达显卡,则可以通过以下命令获取不包含显卡插件的镜像:

sudo docker pull openrllab/openrl-cpu

如果用户想要通过显卡加速训练,则可以通过以下命令获取:

sudo docker pull openrllab/openrl

镜像拉取成功后,用户可以通过以下命令运行OpenRL的Docker镜像:

# 不带显卡加速
sudo docker run -it openrllab/openrl-cpu
# 带显卡加速
sudo docker run -it --gpus all --net host openrllab/openrl

进入Docker镜像后,用户可以通过以下命令查看OpenRL的版本然后运行测例:

# 查看Docker镜像中OpenRL的版本
openrl --version
# 运行测例
openrl --mode train --env CartPole-v1

快速上手

OpenRL为强化学习入门用户提供了简单易用的接口, 下面是一个使用PPO算法训练CartPole环境的例子:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent

env = make("CartPole-v1", env_num=9)  # 创建环境,并设置环境并行数为9
net = Net(env)  # 创建神经网络
agent = Agent(net)  # 初始化智能体
agent.train(total_time_steps=20000)  # 开始训练,并设置环境运行总步数为20000

使用OpenRL训练智能体只需要简单的四步:创建环境=>初始化模型=>初始化智能体=>开始训练

对于训练好的智能体,用户也可以方便地进行智能体的测试:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent

agent = Agent(Net(make("CartPole-v1", env_num=9)))  # 初始化训练器
agent.train(total_time_steps=20000)
# 创建用于测试的环境,并设置环境并行数为9,设置渲染模式为group_human
env = make("CartPole-v1", env_num=9, render_mode="group_human")
agent.set_env(env)  # 训练好的智能体设置需要交互的环境
obs, info = env.reset()  # 环境进行初始化,得到初始的观测值和环境信息
while True:
    action, _ = agent.act(obs)  # 智能体根据环境观测输入预测下一个动作
    # 环境根据动作执行一步,得到下一个观测值、奖励、是否结束、环境信息
    obs, r, done, info = env.step(action)
    if any(done): break
env.close()  # 关闭测试环境

在普通笔记本电脑上执行以上代码,只需要几秒钟,便可以完成该智能体的训练和可视化测试:

Tips: 用户还可以在终端中通过执行一行命令快速训练CartPole环境:

openrl --mode train --env CartPole-v1

对于多智能体、自然语言等任务的训练,OpenRL也提供了同样简单易用的接口。

关于如何进行多智能体训练、训练超参数设置、训练配置文件加载、wandb使用、保存gif动画等信息,请参考:

关于自然语言任务训练、Hugging Face上模型(数据)加载、自定义训练模型(奖励模型)等信息,请参考:

关于OpenRL的更多信息,请参考文档

Gallery

为了方便用户熟悉该框架, 我们在Gallery中提供了更多使用OpenRL的示例和demo。 也欢迎用户将自己的训练示例和demo贡献到Gallery中。

使用OpenRL的研究项目

我们在 OpenRL Project 中列举了使用OpenRL的研究项目。 如果你在研究项目中使用了OpenRL,也欢迎加入该列表。

反馈和贡献

OpenRL框架目前还在持续开发和文档建设,欢迎加入我们让该项目变得更好:

维护人员

目前,OpenRL由以下维护人员维护:

欢迎更多的贡献者加入我们的维护团队 (发送邮件到[email protected]申请加入OpenRL团队)。

支持者

↳ Contributors

↳ Stargazers

Stargazers repo roster for @OpenRL-Lab/openrl

↳ Forkers

Forkers repo roster for @OpenRL-Lab/openrl

Citing OpenRL

如果我们的工作对你有帮助,欢迎引用我们:

@article{huang2023openrl,
  title={OpenRL: A Unified Reinforcement Learning Framework},
  author={Huang, Shiyu and Chen, Wentse and Sun, Yiwen and Bie, Fuqing and Tu, Wei-Wei},
  journal={arXiv preprint arXiv:2312.16189},
  year={2023}
}

Star History

Star History Chart

License

OpenRL under the Apache 2.0 license.

Acknowledgments

The development of the OpenRL framework has drawn on the strengths of other reinforcement learning frameworks: