深度强化学习算法(五)(附带MATLAB程序)

news2024/9/20 20:44:51

深度强化学习(Deep Reinforcement Learning, DRL)结合了深度学习和强化学习的优点,能够处理具有高维状态和动作空间的复杂任务。它的核心思想是利用深度神经网络来逼近强化学习中的策略函数和价值函数,从而提高学习能力和决策效率。

一、关键算法分类

1.1 深度 Q 网络(Deep Q-Network, DQN)
  • 概念:将 Q 学习(一个值函数方法)与深度神经网络结合,用于近似 Q 值函数。
  • 特点:使用经验回放和固定 Q 目标网络来稳定训练过程。
  • 应用:成功应用于 Atari 游戏等环境。
 1.2 双重 Q 学习(Double Q-Learning)
  • 概念:解决 DQN 中 Q 值过估计的问题,通过引入两个 Q 网络来减少过估计。
  • 特点:使用两个独立的 Q 网络交替更新,以减少 Q 值的过高估计。
1.3 优先经验回放(Prioritized Experience Replay)
  • 概念:对经验回放进行优先级排序,以更频繁地训练那些“重要”的样本。
  • 特点:提高了训练的效率和稳定性。
1.4 深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)
  • 概念:适用于连续动作空间的策略梯度算法。
  • 特点:使用策略网络和价值网络来逼近策略和价值函数,并利用经验回放和目标网络来稳定训练。
1.5策略梯度方法(Policy Gradient Methods)
  • 概念:直接优化策略函数,通过梯度上升来最大化预期累积回报。
  • 特点:适合处理大规模或连续动作空间。
1.6近端策略优化(Proximal Policy Optimization, PPO)
  • 概念:通过引入一个“剪切”操作来限制每次策略更新的幅度,确保训练稳定。
  • 特点:简单且有效,广泛应用于各种任务。
1.7演员-评论家方法(Actor-Critic Methods)
  • 概念:结合了策略优化(演员)和价值函数(评论家)的方法。
  • 特点:演员负责更新策略,而评论家负责估计价值函数,用于指导演员更新策略。

二、策略梯度方法(Policy Gradient Methods)公式推导

策略梯度方法(Policy Gradient Methods)的核心在于优化策略函数,以最大化累积奖励。下面是策略梯度方法公式的详细推导过程。

2.1目标函数定义

我们首先定义一个目标函数 J\left ( \theta \right ),它表示在当前策略下的期望累计奖励。假设我们的目标是最大化从状态分布p\left ( s \right ) 中采样的累计奖励。目标函数可以表示为:J\left ( \theta \right )=IE _{\pi \theta}\left [ R \right ] 其中R 是累积奖励,\pi _{\theta }\left ( a|s \right )是给定参数\theta的策略函数

2.2期望累计奖励

为了更详细地推导,我们可以使用以下定义的累积奖励:

R_{t}=\sum _{k=t}^{T}\textrm{}\gamma ^{k-t}r_{k}

其中 r_{k}是在时间步k获得的奖励,\gamma是折扣因子。

 期望累计奖励可以表示为:

J\left ( \theta \right )=IE_{\pi \theta }\left [ \sum _{t=0}^{T}\textrm{} \gamma ^{t}r^{t}\right ]

2.3策略梯度定理

根据策略梯度定理,我们需要计算目标函数 J\left ( \theta \right )关于\theta的梯度。首先,对目标函数 J\left ( \theta \right )取梯度:

\bigtriangledown_{\theta } J\left ( \theta \right )=\bigtriangledown _{\theta }IE_{\pi \theta }\left [ \sum _{t=0}^{T}\textrm{} \gamma ^{t}r^{t}\right ]

2.4梯度的计算

利用期望的性质,我们可以将梯度移到期望外部:

\bigtriangledown_{\theta } J\left ( \theta \right )=IE_{\pi \theta }\left [ \sum _{t=0}^{T}\textrm{} \gamma ^{t}r^{t}\right ]

梯度操作可以分开到每一项: 

\bigtriangledown_{\theta } J\left ( \theta \right )=IE_{\pi \theta }\left [ \sum _{t=0}^{T}\textrm{}\bigtriangledown _{\theta } \gamma ^{t}r^{t}\right ]

我们利用策略导数定理,将奖励 rtr_trt​ 写作策略的函数:

\bigtriangledown _{\theta }r_{t}=\bigtriangledown _{\theta }\left ( log\pi_{\theta } \left ( a_{t}|s_{t} \right )\cdot \pi _{\theta }\left ( a_{t}|s_{t} \right )Q^{\pi }\left ( a_{t}|s_{t} \right )\right )

可以通过以下简化:

\bigtriangledown _{\theta }( log\pi_{\theta } \left ( a_{t}|s_{t} \right )=\frac{\bigtriangledown _{\theta }\pi_{\theta } \left ( a_{t}|s_{t} \right )}{\pi_{\theta } \left ( a_{t}|s_{t} \right )}

于是:

\bigtriangledown _{\theta } \pi _{\theta }\left ( a_{t}|s_{t} \right )Q^{\pi }\left ( a_{t}|s_{t} \right )=\bigtriangledown _{\theta } \pi _{\theta }\left ( a_{t}|s_{t} \right )Q^{\pi }\left ( a_{t}|s_{t} \right )+\pi _{\theta }\left ( a_{t}|s_{t} \right )\bigtriangledown _{\theta } Q^{\pi }\left ( a_{t}|s_{t} \right )

最终:

\bigtriangledown_{\theta } J\left ( \theta \right )=IE_{\pi \theta }\left [ \sum _{t=0}^{T}\textrm{}\bigtriangledown _{\theta } \gamma ^{t}log\pi_{\theta } \left ( a_{t}|s_{t} \right )R_{t}\right ]

2.5使用基线减少方差

为了减少梯度估计的方差,我们可以引入基线 b\left ({s_{t}} \right )。引入基线的目标是使梯度估计更加稳定,而不改变期望值。引入基线后的梯度计算公式是:

\bigtriangledown_{\theta } J\left ( \theta \right )=IE_{\pi \theta }\left [ \sum _{t=0}^{T}\textrm{}\bigtriangledown _{\theta } \gamma ^{t}log\pi_{\theta } \left ( a_{t}|s_{t} \right )\left (R_{t}-b\left ( s_{t} \right ) \right )\right ]

基线b\left ( s_{t} \right ) 可以是状态值函数 V^{\pi }b\left ( s_{t} \right )或者其他合适的函数。

三、MATLAB仿真程序

下面是一个简单的 MATLAB 仿真程序示例,演示如何使用策略梯度方法(Policy Gradient Methods)来训练一个简单的强化学习智能体。这个例子中,我们将使用一个简单的迷宫环境和 REINFORCE 算法(一个基本的策略梯度方法)来优化策略。

3.1定义环境

首先,我们定义迷宫环境及其属性:

function [next_state, reward, done] = simple_maze_env(state, action)
    % 环境的网格尺寸
    grid_size = [5, 5];
    
    % 目标位置
    goal = [5, 5];
    
    % 移动
    move = [0, 0];
    if action == 1
        move = [-1, 0]; % 上
    elseif action == 2
        move = [1, 0]; % 下
    elseif action == 3
        move = [0, -1]; % 左
    elseif action == 4
        move = [0, 1]; % 右
    end
    
    next_state = state + move;
    % 确保状态在环境范围内
    next_state = max(min(next_state, grid_size), [1, 1]);
    
    % 奖励和完成标志
    if isequal(next_state, goal)
        reward = 1;
        done = true;
    else
        reward = -0.01; % 小的负奖励以鼓励较短路径
        done = false;
    end
end
3.2策略函数

接下来,我们定义一个简单的策略函数,使用神经网络来表示策略。这里使用的是一个简单的多层感知机(MLP):

function [pi] = policy_network(state, theta)
    % state: 当前状态
    % theta: 策略网络的参数
    % pi: 当前状态下的策略分布(动作的概率)

    % 状态维度
    num_states = 2; % 例如 [x, y]
    num_actions = 4; % 上、下、左、右
    
    % 简单的线性策略网络
    W = reshape(theta, [num_states, num_actions]);
    logits = W' * state';
    pi = softmax(logits);
end

function y = softmax(x)
    e_x = exp(x - max(x));
    y = e_x / sum(e_x);
end
3.3REINFORCE 算法

实现 REINFORCE 算法来训练策略网络:

function [theta] = reinforce(env, num_episodes, alpha)
    % 参数设置
    num_states = 2;
    num_actions = 4;
    
    % 初始化策略参数
    theta = rand(num_states * num_actions, 1);
    
    % 主循环
    for episode = 1:num_episodes
        state = [1, 1]; % 起始状态
        done = false;
        episode_rewards = [];
        episode_states = [];
        episode_actions = [];
        
        while ~done
            pi = policy_network(state, theta);
            action = randsample(1:num_actions, 1, true, pi);
            
            [next_state, reward, done] = simple_maze_env(state, action);
            
            episode_states = [episode_states; state];
            episode_actions = [episode_actions; action];
            episode_rewards = [episode_rewards; reward];
            
            state = next_state;
        end
        
        % 计算回报
        T = length(episode_rewards);
        returns = zeros(T, 1);
        G = 0;
        for t = T:-1:1
            G = episode_rewards(t) + G;
            returns(t) = G;
        end
        
        % 更新策略
        for t = 1:T
            state = episode_states(t, :);
            action = episode_actions(t);
            pi = policy_network(state, theta);
            grad = zeros(num_states * num_actions, 1);
            grad((action - 1) * num_states + 1:num_states * action) = state';
            grad = grad - pi' .* grad;
            theta = theta + alpha * grad * (returns(t) - pi(action));
        end
    end
end
3.4运行仿真
% 参数设置
num_episodes = 1000;
alpha = 0.01;

% 训练策略
theta = reinforce(@simple_maze_env, num_episodes, alpha);

% 输出结果
disp('训练完成!');
disp('最终策略参数:');
disp(theta);

代码解释

  • simple_maze_env:模拟迷宫环境的函数,接受当前状态和动作,返回下一个状态、奖励和完成标志。
  • policy_network:使用简单的策略网络来计算动作的概率分布。
  • reinforce:实现 REINFORCE 算法的函数,包括策略的采样、奖励计算、策略更新等步骤。

四、总结

策略梯度方法的推导过程涵盖了如何通过直接对策略函数进行优化来提高累积奖励。核心在于利用策略梯度定理,通过计算期望奖励函数的梯度来更新策略参数 θ\thetaθ。为了改进效果,通常会引入基线来降低梯度估计的方差。

  注意:回顾以往算法可以从以下链接进入:

1、深度 Q 网络(Deep Q-Network, DQN):

深度强化学习算法(一)(附带MATLAB程序)-CSDN博客

2、双重 Q 学习(Double Q-Learning):

深度强化学习算法(二)(附带MATLAB程序)-CSDN博客

3.优先经验回放(Prioritized Experience Replay):

深度强化学习算法(三)(附带MATLAB程序)-CSDN博客

4、深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)

深度强化学习算法(四)(附带MATLAB程序)-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2083568.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

数据结构(6.4_2)——最短路径问题_BFS算法

最短路径问题 BFS求无权图的单源最短路径 原代码 改造visit函数后

list的使用及其相关知识点

目录 ◉list的底层逻辑 ◉关于list的新增功能 ▲splice功能 ▲remove函数 ▲unique函数 ▲merge函数 ▲sort函数 ▣迭代器类型 ▲reverse函数 作为数据容器之一的list和其他容器的使用上有很多相似的地方,比如都有大致相同的构造函数,大致相同的头插尾插…

CUDA编程之CUDA Sample-5_Domain_Specific-volumeFiltering(光线追踪)

volumeFiltering演示了使用 3D 纹理和 3D 表面写入进行 3D 体积过滤。它从磁盘加载一个 3D 体积,并使用光线步进和 3D 纹理进行显示。 以下是该示例的主要内容和功能: 主要功能 3D 体积加载: 从磁盘加载 3D 体积数据,通常为医学成像数据或体…

图像处理中的腐蚀与膨胀算法详解

引言 在图像处理领域,形态学操作(Morphological Operations)是处理二值图像的重要工具。腐蚀(Erosion)和膨胀(Dilation)是形态学操作的两种基本形式,它们常用于消除噪声、分割图像、…

深入解析C#中的锁机制:`lock(this)`、`lock(privateObj)`与`lock(staticObj)`的区别

前言 在C#的多线程编程中,lock关键字是确保线程安全的重要工具。它通过锁定特定的对象,防止多个线程同时访问同一块代码,从而避免数据竞争和资源冲突。然而,选择适当的锁对象对于实现高效的线程同步至关重要。本文将深入探讨使用…

三种tcp并发服务器实现程序

都需先进行tcp连接 1、多进程并发 2、多线程并发 3、IO多路复用并发 (1)select (2)epoll

在VB.net中,LINQ在数据统计方面的应用,举例说明

标题 在VB.net中,LINQ在数据统计方面的应用,举例说明 正文 在VB.NET中,LINQ(Language Integrated Query)在数据统计方面有着广泛的应用。LINQ允许开发者以声明性的方式对数据集合进行复杂的查询和统计操作,…

笔记:Echarts 饼图 图例legend 自定义 换行

配置后效果:👇 配置: let option {legend: [{data: ["融云", "融AI", "融安全", "融平台"],show: true,right: "3%",bottom: "20%",left: "center",icon: "re…

乾元通渠道商中标大理市自然灾害应急能力提升项目

近日,乾元通渠道商中标云南省大理市自然灾害应急能力提升项目,乾元通作为设备厂家,为项目提供通信指挥类装备(多链路聚合设备)QYT-X1。 青岛乾元通数码科技有限公司作为国家应急产业企业,深耕于数据调度算法…

医疗数字化转型数据中台架构方案(一)

为推进医疗数字化转型,我们提出构建数据中台架构方案:通过集成医院内外多个数据源,利用大数据、人工智能等技术对数据进行清洗、整合、标准化处理,形成高质量的数据资产;再基于云原生技术构建湖仓一体化大数据平台&…

【Python数据结构与算法】栈----合法出栈序列

题目:合法出栈序列 描述 给定一个由大小写字母和数字构成的,没有重复字符的长度不超过62的字符串x,现在要将该字符串的字符依次压入栈中,然后再全部弹出。 要求左边的字符一定比右边的字符先入栈,出栈顺序无要求。 …

守护夏日清凉:EasyCVR+AI视频智能管理方案为水上乐园安全保驾护航

随着夏季的来临,水上乐园成为了人们避暑消夏、亲子互动的理想去处。然而,随着游客量的激增,如何确保水上乐园的安全与秩序,提升游客体验,成为了管理者亟待解决的问题。为此,引入一套高效、智能的视频监控方…

Node.js原生开发脚手架工具(下)

前言 在现代软件开发中,脚手架工具成为提高开发效率和一致性的关键利器。使用Node.js原生开发自己的脚手架工具不仅能帮助自动化常见任务,还能根据具体需求进行高度定制。Node.js的异步非阻塞特性和丰富的模块系统使其成为构建这种工具的理想选择。本篇文…

使用 pnpm workspace 和 standalone 模式构建 Next.js 的 Docker 镜像

引言 本文将探讨如何利用 pnpm workspace 和 standalone 模式来构建 Next.js 应用程序的轻量级 Docker 镜像。这种方法通过仅在 node_modules 目录中包含必要的文件,显著减少了最终 Docker 镜像的大小。 Standalone 模式简介 通常情况下,所有在 depe…

MyPrint打印设计器(四)vue3 函数式调用组件

vue3 函数式调用组件 vue中,通常情况下调用一个组件需要以下步骤 导入组件在template引入组件,并且设置ref属性在js模块定义对应的ref属性通过ref对象调用对应的方法 如果这个组件在template是不必要的,那么可以通过函数式调用组件&#xff…

Windows 10/11 系统优化工具 Optimizer 16.7

Optimizer 功能特色 全语言支持(提供19种语言) 提高系统和网络性能 禁用不必要的窗口服务 禁用 Windows 遥测、小娜等 禁用 Office 遥测(仅适用于 Office 2016) 禁用 Windows 10 自动更新 一次快速下载有用的应用程序 卸载 UWP 应…

ARMxy工业控制器搭载 Mini PCIe加密安全芯片工业控制拓展之旅

在当今高度数字化和智能化的工业领域,数据采集的准确性、实时性和全面性对于优化生产流程、提高产品质量以及保障生产安全至关重要。ARM 工业控制器以其高效能、低功耗和出色的稳定性,成为了工业自动化领域的重要组成部分。而其中的 Mini PCIe 接口更是为…

JVM内存结构、内存参数、调优原理

文章目录 引言I JVM基础知识1.1 JVM内存区域1.2 JVM 堆内存布局1.3 JVM 内存参数II 调整JVM的默认堆内存配置2.1 java命令启动jar包时配置JVM 的内存参数2.2 基于Tomcat服务器部署的java应用,配置JVM 的内存参数III JVM调优基本概念: 应用程序的响应时间(RT)和吞吐量(QPS)…

基于springboot+vue+uniapp的使命召唤游戏助手小程序

开发语言:Java框架:springbootuniappJDK版本:JDK1.8服务器:tomcat7数据库:mysql 5.7(一定要5.7版本)数据库工具:Navicat11开发软件:eclipse/myeclipse/ideaMaven包&#…

Lenze伦茨E82ZAFSC / E82ZAFSC001变频器IO模块手测

Lenze伦茨E82ZAFSC / E82ZAFSC001变频器IO模块手测