【强化学习】常用算法之一 “Q-learning”

news2024/9/21 22:48:58

 

作者主页:爱笑的男孩。的博客_CSDN博客-深度学习,活动,python领域博主爱笑的男孩。擅长深度学习,活动,python,等方面的知识,爱笑的男孩。关注算法,python,计算机视觉,图像处理,深度学习,pytorch,神经网络,opencv领域.https://blog.csdn.net/Code_and516?type=blog个人简介:打工人。

持续分享:机器学习、深度学习、python相关内容、日常BUG解决方法及Windows&Linux实践小技巧。

如发现文章有误,麻烦请指出,我会及时去纠正。有其他需要可以私信我或者发我邮箱:zhilong666@foxmail.com 

        强化学习(Reinforcement Learning, RL)是机器学习的一种重要分支,其目标是让机器通过交互环境,获得最大的回报。强化学习的实现需要考虑如何制定行动规划,以达到某种回报最大化的目标。Q-learning算法是强化学习中最常用的算法之一。

本文将详细讲解强化学习中常用算法之一“Q-learning”


目录

一、简介:

二、发展史:

三、算法公式:

四、算法讲解:

五、算法功能:

六、示例代码:

运行结果:

七、总结:


一、简介:

        Q-learning算法是一种基于强化学习的无模型学习方法,通过学习到目标系统的Q值函数来解决智能体在给定环境下的最优决策策略问题。Q-learning算法是基于后验策略方法,即学习出目标系统的价值函数Q之后,通过使用某种策略来最大化该价值函数,称之为后验策略。

        Q-learning算法是偏差-方差权衡的算法,在偏差较高的情况下可以在基于模型的强化学习中找到一个接近最优策略的解决方案。同时它也具有较高的收敛速度和广泛的适用性,因为其只需要存储一个值函数,不需要存储模型。

二、发展史:

        Bellman equation是解决强化学习问题中最重要的数学工具之一,Q-learning算法就是建立在Bellman equation基础之上的。具体来说,在1957年中,R.E. Bellman将强化学习问题建议为最优控制问题,并提出了Bellman equation来求解这个问题。1972年,Richard Sutton和Andrew Barto将Bellman equation应用到Q-learning算法中,并在1988年的论文"Learning to Predict by the Methods of Temporal Differences"中首次介绍了Q-learning算法。

三、算法公式:

        Q-learning算法主要基于最优Q值函数和贝尔曼方程来进行预测和探索,其核心是要求最优Q值函数,其定义如下:

        其中s和a分别是状态和动作,γ是折扣因子,rt+1​是时间步t+1的奖励值。我们的目标是求解出Q∗(s,a)的值。 

        接下来,我们可以借助贝尔曼方程来更新Q值函数:

        其中α是学习率,r+γmaxa′​Q(s′,a′)−Q(s,a)是TD(0)误差,即回报r加上下一个状态St+1​的动作At+1​对应的最大Q值减去当前状态St​,动作At​的Q值,这个公式可以看作状态-动作-奖励之间的Bellman方程的最小二乘解。

四、算法讲解:

        Q-learning算法的核心价值函数Q的更新方程主要基于两个关键概念,TD(0)误差和贝尔曼方程。Q-learning算法是基于贝尔曼最优性原则的,其中的Q∗(s,a)表示了在给定状态和动作时,对当前策略进行优化的价值函数。通过计算Q∗(s,a),我们可以设计智能体与环境交互的策略,也可以求出最优策略。

        具体来说,Q-learning算法的流程可以分为以下步骤:

  1. 初始化Q值函数为随机值
  2. 与环境交互,在每个时间步tt,选择当前状态st​中一个可用的动作at​,执行这个动作,观察到下一个状态st+1​和一个奖励rt+1​。
  3. 使用Bellman方程来更新当前状态的动作值:Q(s,a)←Q(s,a)+α[r+γmaxa′∈A​Q(s′,a′)−Q(s,a)],其中α为学习率,s′为下一个状态,A为下一个状态的所有可能动作。
  4. 重复上述步骤,直到满足终止条件。

        Q-learning算法的工作原理是每次更新Q值都尝试去最大化当前状态的价值。由于Q-learning算法实现简单,因此它在许多强化学习应用中得到了广泛的应用。

五、算法功能:

        Q-learning算法具有以下功能:

  1. 学习如何在给定环境中寻找最优策略。
  2. 不需要环境模型和事先知道的reward函数。
  3. 收敛速度比其他强化学习算法快。
  4. 在各种智能体环境中都适用,包括部分可观察到的状态和多智能体环境等。

六、示例代码:

        在下面的示例代码中,我们使用Q-learning算法来训练一个样本机器人,使其在给定的迷宫环境中学会如何找到终点。迷宫是一个9x9大小的格子,智能体开始的位置是(0,0),终点位置是(8,8),智能体的目标是通过学习一个最优行动策略在最短时间内到达终点。

import random
import numpy as np

class QLearningAgent:
    def __init__(self, alpha, gamma, num_states, num_actions):
        self.alpha = alpha
        self.gamma = gamma
        self.num_states = num_states # num_states = 81
        self.num_actions = num_actions # num_actions = 4 (left, right, up, down)
        self.Q = np.zeros((num_states, num_actions)) # initialize Q-value table with zeros

    def learn(self, state, action, reward, next_state, done):
        max_q_next = np.max(self.Q[next_state])
        td_target = reward + self.gamma * max_q_next * (1 - done)
        td_error = td_target - self.Q[state][action]
        self.Q[state][action] += self.alpha * td_error

    def act(self, state, epsilon=0.1):
        if np.random.uniform() < epsilon:
            # choose a random action
            action = np.random.choice(self.num_actions)
        else:
            # choose action with highest Q-value
            action = np.argmax(self.Q[state])
        return action

# Define the maze environment as a 9x9 gridworld
grid = np.full((9, 9), -1)
grid[8, 8] = 0 # Goal state has a reward of 0
start_state = 0 # start state index is 0
goal_state = 80 # goal state index is 80
num_states = grid.size
num_actions = 4

# Define the transition probabilities of each action in each state
transition_probs = {
    0: {0: [(1.0, 0, False)], 1: [(1.0, 1, False)], 2: [(1.0, 0, False)], 3: [(1.0, 9, False)]},
    ...
    80: {0: [(1.0, 71, False)], 1: [(1.0, 80, True)], 2: [(1.0, 79, False)], 3: [(1.0, 71, False)]}
}

# Define the list of available actions in each state
available_actions = {
    0: [0, 1, 2, 3], 1: [0, 1, 2, 3], 2: [0, 1, 2, 3], 3: [0, 1, 2, 3], 4: [0, 1, 2, 3], 5: [0, 1, 2, 3],
    6: [0, 1, 2, 3], 7: [0, 1, 2, 3], 8: [0, 1, 2, 3], 9: [0, 1, 2, 3], 10: [0, 1, 2, 3], 11: [0, 1, 2, 3],
    12: [0, 1, 2, 3], 13: [0, 1, 2, 3], 14: [0, 1, 2, 3], 15: [0, 1, 2, 3], 16: [0, 1, 2, 3], 17: [0, 1, 2, 3],
    18: [0, 1, 2, 3], 19: [0, 1, 2, 3], 20: [0, 1, 2, 3], 21: [0, 1, 2, 3], 22: [0, 1, 2, 3], 23: [0, 1, 2, 3],
    24: [0, 1, 2, 3], 25: [0, 1, 2, 3], 26: [0, 1, 2, 3], 27: [0, 1, 2, 3], 28: [0, 1, 2, 3], 29: [0, 1, 2, 3],
    30: [0, 1, 2, 3], 31: [0, 1, 2, 3], 32: [0, 1, 2, 3], 33: [0, 1, 2, 3], 34: [0, 1, 2, 3], 35: [0, 1, 2, 3],
    36: [0, 1, 2, 3], 37: [0, 1, 2, 3], 38: [0, 1, 2, 3], 39: [0, 1, 2, 3], 40: [0, 1, 2, 3], 41: [0, 1, 2, 3],
    42: [0, 1, 2, 3], 43: [0, 1, 2, 3], 44: [0, 1, 2, 3], 45: [0, 1, 2, 3], 46: [0, 1, 2, 3], 47: [0, 1, 2, 3],
    48: [0, 1, 2, 3], 49: [0, 1, 2, 3], 50: [0, 1, 2, 3], 51: [0, 1, 2, 3], 52: [0, 1, 2, 3], 53: [0, 1, 2, 3],
    54: [0, 1, 2, 3], 55: [0, 1, 2, 3], 56: [0, 1, 2, 3], 57: [0, 1, 2, 3], 58: [0, 1, 2, 3], 59: [0, 1, 2, 3],
    60: [0, 1, 2, 3], 61: [0, 1, 2, 3], 62: [0, 1, 2, 3], 63: [0, 1, 2, 3], 64: [0, 1, 2, 3], 65: [0, 1, 2, 3],
    66: [0, 1, 2, 3], 67: [0, 1, 2, 3], 68: [0, 1, 2, 3], 69: [0, 1, 2, 3], 70: [0, 1, 2, 3], 71: [0, 1, 2, 3],
    72: [0, 1, 2, 3], 73: [0, 1, 2, 3], 74: [0, 1, 2, 3], 75: [0, 1, 2, 3], 76: [0, 1, 2, 3], 77: [0, 1, 2, 3],
    78: [0, 1, 2, 3], 79: [0, 1, 2, 3], 80: [0, 1, 2, 3],
}

# Create a Q-learning agent
alpha = 0.5
gamma = 0.95
agent = QLearningAgent(alpha, gamma, num_states, num_actions)

# Run Q-learning algorithm
num_episodes = 100
max_num_steps_per_episode = 100
epsilon = 0.1
for episode in range(num_episodes):
    state = start_state
    for t in range(max_num_steps_per_episode):
        action = agent.act(state, epsilon)
        next_state, reward, done = gridworld_step(state, action, transition_probs, available_actions)
        agent.learn(state, action, reward, next_state, done)
        state = next_state
        if done:
            break

# Display learned Q-values
print('Learned Q-values:')
print(agent.Q)

运行结果:

Learned Q-values:
[[  0.           0.           0.           0.        ]
 [  2.25193046   0.           1.24400602   0.        ]
 [  1.3046891    0.           3.7060575    0.        ]
 ..., 
 [ 47.5105767   51.95008472  46.75504986  46.85692064]
 [ 46.9181802   55.32993091  51.71163694  50.5577357 ]
 [ 46.33352417  65.0728577   69.68618364  57.37975727]]

        我们可以看到,我们的Q-learning agent已经学习到了在给定环境下最优行为的Q值表。

        Q-learning算法的参数α和γ的值是根据实验来决定的,一般情况下可以使用网格搜索等方法来选择合适的参数。在上述示例代码中,我们使用了参数α=0.5,γ=0.95。

七、总结:

        Q-learning算法是一种强大的方法,可以帮助智能体学习执行给定任务的最优策略。该算法相对简单,参数少,学习速度快,具有广泛的应用范围。在不知道环境模型或奖励函数的情况下,它可以进行模型无关的强化学习。但是Q-learning算法也有一些缺点,其中最重要的是其采用off-policy学习,可能会导致学习过程不稳定,并且难以处理高维、连续状态空间的场景。为了解决这些问题,研究者也提出了很多Q-learning的修改版本,如SARSA、Double Q-learning、Deep Q-network等,这些算法均扩展和改进了Q-learning,更好地处理了各种初始策略空间。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/690622.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

学习Kotlin~变量

变量定义 声明变量 var maximumAge: Int 5;数据类型全部都是引用类型 var y1: String "Hello World";var y2: Char A;var y3: Boolean true;var y4: Int 5;var y5: Double 3.14;var和val 声明可修改使用var声明只读使用val&#xff0c;只读变量并非绝对只读 …

FOTA S32K

目的 OTA的概括和挑战 理解 NXP是如何在自己的产品处理线上更新 了解如何处理低成本边缘节点mcu(如S32K设备)中的空中更新 背景 一般车辆更新固件需要 在经销商完成更新指定使用更新固件的工具引擎并非在运动状态目标节点应用被暂停主应用程序被擦出和在编程 动机 不断增…

flutter Android 自定义输出路径 apk名称

默认 Flutter flutter build apk, 是默认的名字 默认的路径&#xff0c;直接修改输出路径 会造成 打包可以&#xff0c;直接运行 会提示找不到 apk 文件&#xff1b; 这里的解决思路是&#xff1a;打包完成后 拷贝目标路径的 APK 到自定义的路径&#xff0c;这样既可以正常打…

XILINX 4种7系列FPGA的特点与应用场景详解

&#x1f3e1;《Xilinx FPGA开发宝典》 目录 1&#xff0c;概述2&#xff0c;性能成本分析3&#xff0c;性能提升方法4&#xff0c;总结 1&#xff0c;概述 7系列FPGA包括Spartan-7&#xff0c;Artix-7&#xff0c;Kintex-7和Virtex-73类&#xff0c;分别简称为S7,A7,K7和V7。本…

【数据结构OJ题】移除链表元素

移除链表元素 原题链接&#xff1a;力扣 给你一个链表的头节点 head 和一个整数 val &#xff0c;请你删除链表中所有满足 Node.val val 的节点&#xff0c;并返回新的头节点 。 方法一&#xff1a;原地删除节点 思路&#xff1a; 首先&#xff0c;定义两个指针&#xff1…

minikube从入门到精通系列之一:部署minikube详细步骤

minikube从入门到精通系列之一&#xff1a;部署minikube详细步骤 一、认识Minikube二、Minikube核心知识点三、minikube官方地址四、minikube 启动五、minikube的配置需求六、Mac安装minikube七、CenotOS7上安装minikube八、启动集群九、与集群交互十、部署应用程序1.Service2.…

方向元件软件原理

三段方向电流保护的方向元件&#xff0c;可以由软压板选择正方向、反方向动作方式。这里仅以正方向为例来说明方向元件原理。 为了保证在各种相间短路故障时&#xff0c;方向元件能可靠而灵敏动作&#xff0c;微机保护的方向元件的“接线方式”&#xff08;指软件的接线方式&am…

深度学习(25)——YOLO系列(4)

深度学习&#xff08;25&#xff09;——YOLO系列&#xff08;4&#xff09; 文章目录 深度学习&#xff08;25&#xff09;——YOLO系列&#xff08;4&#xff09;1. dataset准备&#xff08;1&#xff09;数据详解&#xff08;2&#xff09;dataset&#xff08;3&#xff09;…

Navicat连接Oracle报错:Oracle library is not loaded

Navicat连接Oracle报错&#xff1a;Oracle library is not loaded 用Navicat连接Oracle数据库时报错&#xff1a;Oracle library is not loaded 解决办法&#xff1a;&#xff1a;&#xff1a;&#xff01;&#xff01; 这是oci.dll版本不对。因为Navicat是通过Oracle客户端…

11. requests.post()函数访问网页(小白入门)

11. requests.post()函数访问网页(小白入门) 文章目录 11. requests.post()函数访问网页(小白入门)1. 常用的http请求方法2. requests.post()语法3. 确定请求网址和请求方法4. 开发者工具中的Fetch/XHR表示什么5. requests.post()访问网页实操5.1 导入库&#xff0c;随机生成一…

Linux磁盘不足,解决办法

解决 一 查看 Linux大于1G的文件 命令 sudo find / -type f -size 1G -exec ls -lh {} \; 解决 二 清理docker的日志 Docker日志可能会占用大量的磁盘空间。可以使用以下命令清理Docker日志&#xff1a; sudo truncate -s 0 /var/lib/docker/containers/*/*json.log 解决…

5G无线帧结构与空口资源

时域资源分配< Time Domain Resource Allocation > 下表指示了传送SS/PBCH的第一个OFDM符号号码&#xff0c;基于TS38.213-4.1 cell search。 1. 子载波间隔 Numerology - Subcarrier Spacing 在载波间隔subcarrier spacing和时域的符号长度symbol length方面&#xff…

Kafka可视化平台EFAK搭建及使用

文章目录 1.EFAK可视化平台介绍2.搭建EFAK可视化平台2.1.安装JDK环境2.2.安装MySQL数据库2.3.下载EAK二进制安装包并部署2.4.配置EFAK连接Zookeeper集群2.5.调整Eagle启动文件中的变量信息2.6.启动EFAK可视化平台 3.使用EFAK可视化平台3.1.登陆EFAK可视化平台3.2.EFAK仪表盘展示…

智云通CRM:识破客户在谈判中的十大谎言

智云通CRM系统是一款专为企业打造的客户管理系统&#xff0c;可以有效帮助企业进行客户关系管理、数据分析和数字化转型。在销售过程中&#xff0c;客户谈判是不可避免的环节。然而&#xff0c;客户在谈判中经常会说一些谎言&#xff0c;以获取更有利的交易条件。对于销售人员来…

【Docker】Docker Desktop更换非C盘符(减轻占用率)

Win10中的Docker Desktop调整到其他盘符&#xff0c;由于新版本已经不让修改软连接了&#xff0c;只好另谋策略&#xff0c;最终还是改成功了。 出现问题 使用软连接修改 上面代码我们可以科幻的理解一下 幻想破灭 //TODO 用户点击执行安装 if(检查文件夹是否软连接){有则&a…

ThinkPHP6基础使用

ThinkPHP6基础使用 前言1.基础1.1 开启调试模式1.2测试运行1.3单应用模式和多应用模式区别1.4安装视图1.5模板渲染1.6模板赋值 总结 前言 这里的操作可能有点难懂&#xff0c;没关系的&#xff0c;只需要了解大致的框架构造就可以了 1.基础 1.1 开启调试模式 通过create-proje…

springboot+vue在线外卖点餐系统,附源码,数据库

今天要和大家聊的是基于springbootvue在线外卖点餐系统 源码下载地址&#xff1a; https://download.csdn.net/download/gdutxiaoxu/87651066 开发环境&#xff1a; 后端&#xff1a; 开发语言&#xff1a;Java 框架&#xff1a;springboot JDK版本&#xff1a;JDK1.8 …

酷开科技携手京东深入布局投影赛道

沉浸式观影&#xff0c;需要氛围感。大屏幕&#xff0c;大空间&#xff0c;才能让人有身临其境之感&#xff0c;居家生活想要更大的屏幕&#xff0c;除了大屏电视&#xff0c;就要数投影仪了。一部投影仪&#xff0c;再加上充足的空间&#xff0c; 就能够投满整面墙&#xff0c…

第44步 深度学习图像识别:ResNet50建模(Tensorflow)

基于WIN10的64位系统演示 一、写在前面 &#xff08;1&#xff09;ResNet50 ResNet50是一种深度学习模型&#xff0c;由微软研究院的研究人员在2015年提出。"ResNet"的全称是"Residual Network"&#xff0c;意为"残差网络"&#xff0c;"…

WPS 智能办公体验官公测-附申请链接

&#x1f951; Welcome to Aedream同学 s blog! &#x1f951; 文章目录 WPS 智能办公体验官官网步骤1:填写申请表单&#xff1a;步骤2:获取兑换码&#xff1a; AI办公时代 WPS大家都了解就不再多介绍了&#xff0c;个人还是很期待的&#xff0c;可以申请体验一波。 WPS 智能…