OpenAI Gym 中级教程——深入强化学习算法

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
Elasticsearch Serverless检索通用型,资源抵扣包 100CU*H
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: OpenAI Gym 中级教程——深入强化学习算法

Python OpenAI Gym 中级教程:深入强化学习算法

OpenAI Gym 是一个用于开发和比较强化学习算法的工具包,提供了多个环境,包括经典的控制问题和 Atari 游戏。本篇博客将深入介绍 OpenAI Gym 中的强化学习算法,包括深度 Q 网络(Deep Q Network, DQN)和深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)。

1. 安装 OpenAI Gym

首先,确保你已经安装了 OpenAI Gym:

pip install gym

2. 强化学习简介

强化学习是一种机器学习的分支,其目标是通过智能体(Agent)与环境的交互学习,以获得最优的动作策略。在 OpenAI Gym 中,智能体在环境中执行动作,观察环境的反馈,并根据反馈调整策略。

3. 深度 Q 网络(DQN)

DQN 是一种用于解决离散动作空间问题的强化学习算法。下面是一个简单的 DQN 示例,使用 Gym 中的 CartPole 环境:

import gym
import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import Adam

# 创建 CartPole 环境
env = gym.make('CartPole-v1')

# 定义深度 Q 网络模型
model = Sequential()
model.add(Dense(24, input_shape=(env.observation_space.shape[0],), activation='relu'))
model.add(Dense(24, activation='relu'))
model.add(Dense(env.action_space.n, activation='linear'))
model.compile(optimizer=Adam(), loss='mse')

# 定义 DQN 算法
class DQNAgent:
    def __init__(self, model, gamma=0.99, epsilon=1.0, epsilon_decay=0.995, epsilon_min=0.01):
        self.model = model
        self.gamma = gamma
        self.epsilon = epsilon
        self.epsilon_decay = epsilon_decay
        self.epsilon_min = epsilon_min

    def act(self, state):
        if np.random.rand() <= self.epsilon:
            return np.random.choice(env.action_space.n)
        q_values = self.model.predict(state)
        return np.argmax(q_values[0])

    def train(self, state, action, reward, next_state, done):
        target = reward
        if not done:
            target = reward + self.gamma * np.amax(self.model.predict(next_state)[0])
        target_f = self.model.predict(state)
        target_f[0][action] = target
        self.model.fit(state, target_f, epochs=1, verbose=0)
        if self.epsilon > self.epsilon_min:
            self.epsilon *= self.epsilon_decay

# 初始化 DQN Agent
dqn_agent = DQNAgent(model)

# 训练 DQN
for episode in range(1000):
    state = env.reset()
    state = np.reshape(state, [1, env.observation_space.shape[0]])
    for time in range(500):
        # env.render()
        action = dqn_agent.act(state)
        next_state, reward, done, _ = env.step(action)
        reward = reward if not done else -10
        next_state = np.reshape(next_state, [1, env.observation_space.shape[0]])
        dqn_agent.train(state, action, reward, next_state, done)
        state = next_state
        if done:
            print(f"Episode: {episode+1}, Score: {time+1}, Epsilon: {dqn_agent.epsilon}")
            break

env.close()

在这个例子中,我们使用 Keras 构建了一个简单的深度 Q 网络模型,并实现了一个 DQN Agent。Agent 根据 epsilon-greedy 策略选择动作,并通过 Q-learning 更新模型。

4. 深度确定性策略梯度(DDPG)

DDPG 是一种用于解决连续动作空间问题的强化学习算法。下面是一个简单的 DDPG 示例,使用 Gym 中的 Pendulum 环境:

import gym
import numpy as np
from keras.models import Sequential, Model
from keras.layers import Dense, Input, concatenate
from keras.optimizers import Adam
from keras import backend as K

# 创建 Pendulum 环境
env = gym.make('Pendulum-v0')

# 定义深度确定性策略梯度(DDPG)模型
class ActorCritic:
    def __init__(self, state_size, action_size):
        self.state_size = state_size
        self.action_size = action_size
        self.action_low = env.action_space.low
        self.action_high = env.action_space.high
        self.actor = self.build_actor()
        self.critic = self.build_critic()

    def build_actor(self):
        state_input = Input(shape=(self.state_size,))
        h = Dense(24, activation='relu')(state_input)
        h = Dense(48, activation='relu')(h)
        h = Dense(24, activation='relu')(h)
        output = Dense(self.action_size, activation='tanh')(h)
        output = Lambda(lambda x: x * (self.action_high - self.action_low) / 2 + (self.action_high + self.action_low) / 2)(output)
        model = Model(inputs=state_input, outputs=output)
        return model

    def build_critic(self):
        state_input = Input(shape=(self.state_size,))
        action_input = Input(shape=(self.action_size,))
        state_h = Dense(24, activation='relu')(state_input)
        state_h = Dense(48)(state_h)
        action_h = Dense(48)(action_input)
        h = concatenate([state_h, action_h])
        h = Dense(24, activation='relu')(h)
        output = Dense(1, activation='linear')(h)
        model = Model(inputs=[state_input, action_input], outputs=output)
        return model

    def act(self, state):
        return self.actor.predict(state)

    def train(self, states, actions, rewards, next_states, dones):
        target_actions = self.actor.predict(next_states)
        target_q_values = self.critic.predict([next_states, target_actions])
        targets = rewards + 0.99 * target_q_values * (1 - dones)
        self.critic.train_on_batch([states, actions], targets)
        action_gradients = np.reshape(self.critic.get_gradients([states, actions, 0]), (-1, self.action_size))
        self.actor.train_fn([states, action_gradients, 1])

# 初始化 DDPG Agent
ddpg_agent = ActorCritic(env.observation_space.shape[0], env.action_space.shape[0])

# 训练 DDPG
for episode in range(1000):
    state = env.reset()
    state = np.reshape(state, [1, env.observation_space.shape[0]])
    total_reward = 0
    for time in range(500):
        # env.render()
        action = ddpg_agent.act(state)
        next_state, reward, done, _ = env.step(action)
        next_state = np.reshape(next_state, [1, env.observation_space.shape[0]])
        ddpg_agent.train(state, action, reward, next_state, done)
        state = next_state
        total_reward += reward
        if done:
            print(f"Episode: {episode+1}, Total Reward: {total_reward}")
            break

env.close()

在这个例子中,我们定义了一个 Actor 和一个 Critic,使用 Keras 构建了一个简单的 DDPG 模型。Agent 根据模型选择动作,并通过训练 Actor 和 Critic 来优化策略。

5. 总结

本篇博客介绍了在 OpenAI Gym 中应用深度 Q 网络(DQN)和深度确定性策略梯度(DDPG)算法的示例。这些算法为解决离散和连续动作空间的强化学习问题提供了基础。在实际应用中,需要根据具体问题调整网络结构和超参数,并进行大量的训练以获得良好的性能。希望这篇博客能够帮助你更深入地理解 OpenAI Gym 中的强化学习算法。

目录
相关文章
|
10天前
|
机器学习/深度学习 数据采集 算法
智能限速算法:基于强化学习的动态请求间隔控制
本文分享了通过强化学习解决抖音爬虫限速问题的技术实践。针对固定速率请求易被封禁的问题,引入基于DQN的动态请求间隔控制算法,智能调整请求间隔以平衡效率与稳定性。文中详细描述了真实经历、问题分析、技术突破及代码实现,包括代理配置、状态设计与奖励机制,并反思成长,提出未来优化方向。此方法具通用性,适用于多种动态节奏控制场景。
智能限速算法:基于强化学习的动态请求间隔控制
|
1月前
|
机器学习/深度学习 存储 算法
18个常用的强化学习算法整理:从基础方法到高级模型的理论技术与代码实现
本文系统讲解从基本强化学习方法到高级技术(如PPO、A3C、PlaNet等)的实现原理与编码过程,旨在通过理论结合代码的方式,构建对强化学习算法的全面理解。
85 10
18个常用的强化学习算法整理:从基础方法到高级模型的理论技术与代码实现
|
2月前
|
机器学习/深度学习 算法 机器人
强化学习:时间差分(TD)(SARSA算法和Q-Learning算法)(看不懂算我输专栏)——手把手教你入门强化学习(六)
本文介绍了时间差分法(TD)中的两种经典算法:SARSA和Q-Learning。二者均为无模型强化学习方法,通过与环境交互估算动作价值函数。SARSA是On-Policy算法,采用ε-greedy策略进行动作选择和评估;而Q-Learning为Off-Policy算法,评估时选取下一状态中估值最大的动作。相比动态规划和蒙特卡洛方法,TD算法结合了自举更新与样本更新的优势,实现边行动边学习。文章通过生动的例子解释了两者的差异,并提供了伪代码帮助理解。
204 2
|
7月前
|
机器学习/深度学习 算法 机器人
多代理强化学习综述:原理、算法与挑战
多代理强化学习是强化学习的一个子领域,专注于研究在共享环境中共存的多个学习代理的行为。每个代理都受其个体奖励驱动,采取行动以推进自身利益;在某些环境中,这些利益可能与其他代理的利益相冲突,从而产生复杂的群体动态。
555 5
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
DeepSeek 开源 R1 系列推理模型,性能对标 OpenAI o1,基于纯强化学习完成自我进化,无需监督微调
DeepSeek R1-Zero 是一款基于纯强化学习的开源推理模型,无需监督微调数据,支持多任务泛化与自我进化,适用于数学推理、代码生成等场景。
627 21
DeepSeek 开源 R1 系列推理模型,性能对标 OpenAI o1,基于纯强化学习完成自我进化,无需监督微调
|
4月前
|
机器学习/深度学习 算法 PyTorch
深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
软演员-评论家算法(Soft Actor-Critic, SAC)是深度强化学习领域的重要进展,基于最大熵框架优化策略,在探索与利用之间实现动态平衡。SAC通过双Q网络设计和自适应温度参数,提升了训练稳定性和样本效率。本文详细解析了SAC的数学原理、网络架构及PyTorch实现,涵盖演员网络的动作采样与对数概率计算、评论家网络的Q值估计及其损失函数,并介绍了完整的SAC智能体实现流程。SAC在连续动作空间中表现出色,具有高样本效率和稳定的训练过程,适合实际应用场景。
951 7
深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
|
5月前
|
编解码 人工智能 自然语言处理
OpenAI Sora 怎么用:最新详细教程-新手小白必看 | Sora 如何使用?(202412月最新更新)
OpenAI的Sora模型现已正式开放使用,本文将详细介绍Sora的注册、使用方法及视频生成技巧。Sora能根据简洁文本生成长达60秒的高质量视频,具备远超以往模型的时间连续性和视觉效果。文章涵盖从零开始的准备工作、操作界面介绍、视频生成设置、编辑功能(如Re-cut、Remix、Blend、Loop)以及Storyboard故事板功能,帮助新手轻松上手世界顶级AI视频创作工具。此外,还解答了关于Sora的常见问题,包括订阅计划、视频类型和局限性等,适合全媒体创作者参考。
571 4
OpenAI Sora 怎么用:最新详细教程-新手小白必看 | Sora 如何使用?(202412月最新更新)
|
5月前
|
机器学习/深度学习 算法
强化学习之父Richard Sutton给出一个简单思路,大幅增强所有RL算法
Richard Sutton领导的团队提出了一种称为“奖励中心化”的方法,通过从观察到的奖励中减去其经验平均值,使奖励更加集中,显著提高了强化学习算法的性能。该方法在解决持续性问题时表现出色,尤其是在折扣因子接近1的情况下。论文地址:https://arxiv.org/pdf/2405.09999
149 15
|
6月前
|
机器学习/深度学习 人工智能 算法
探索人工智能中的强化学习:原理、算法与应用
探索人工智能中的强化学习:原理、算法与应用
|
6月前
|
机器学习/深度学习 人工智能 算法
探索人工智能中的强化学习:原理、算法及应用
探索人工智能中的强化学习:原理、算法及应用