卡尔曼滤波Q和R怎么调

news2024/10/6 6:13:25
  • 卡尔曼滤波器是一种有效的估计算法,主要用于在存在噪声的环境中估计动态系统的状态。它通过结合预测模型(系统动态)和观测数据(包括噪声)来实现这一点。在卡尔曼滤波中,调整过程噪声协方差矩阵 ( Q ) 和测量噪声协方差矩阵 ( R ) 是非常关键的,因为这两个参数直接影响滤波器的性能。

    过程噪声 ( Q )

    • 意义:( Q ) 表示对系统模型中随机噪声的估计。如果 ( Q ) 设置得较小,表明我们相信系统模型的精度较高,系统状态的预测与实际值差异不大。
    • 调整策略:如果 ( Q ) 过小,滤波器对模型预测的信任度过高,可能会忽略一些实际中的动态变化,导致滤波结果跟不上实际系统的变化(系统易发散)。如果 ( Q ) 过大,滤波器对模型的信任度降低,会更多地依赖观测数据,这可能导致滤波输出过于嘈杂,反映了过多的测量噪声。

    测量噪声 ( R )

    • 意义:( R ) 表示对测量过程中噪声的估计。较大的 ( R ) 表示对测量数据的信任度较低。
    • 调整策略:如果 ( R ) 过大,滤波器对测量数据的依赖减少,响应变慢,可能导致滤波器响应对系统变化不够敏感。如果 ( R ) 过小,滤波器对测量数据的信任度过高,这可能使滤波结果受到测量噪声的较大影响,导致估计值波动较大。

    调试技巧

    • 单变量调整:在调试过程中,通常建议固定一个噪声参数(如先固定 ( R )),调整另一个(如 ( Q )),观察滤波器的性能如何变化。这样可以分别了解每个参数的影响。
    • 逐步调整:开始时可以将 ( Q ) 设置得较小,( R ) 设置得较大,然后逐步增加 ( Q )、减小 ( R ),观察滤波器的稳定性和响应速度。
    • 性能指标:观察滤波器在调整参数后的性能,如估计误差、收敛速度、对系统变化的响应等。

    实际应用中的考量

    • 系统动态:系统的具体特性和动态变化也会影响最佳的 ( Q ) 和 ( R ) 值。例如,对于动态变化剧烈的系统,可能需要较大的 ( Q ) 来适应这种变化。
    • 噪声特性:实际测量过程中噪声的统计特性(如方差、频谱)也应该在调整 ( R ) 时考虑。

    总的来说,调整 ( Q ) 和 ( R ) 是一个迭代过程,需要基于系统性能反馈和实际观测数据来不断优化。在实际应用中,也可以利用一些自适应算法来动态调整这些参数,以达到更好的滤波效果。

    https://yunyang1994.github.io/2021/07/10/%E5%8D%A1%E5%B0%94%E6%9B%BC%E6%BB%A4%E6%B3%A2%E7%AE%97%E6%B3%95-%E6%B0%B8%E8%BF%9C%E6%BB%B4%E7%A5%9E/

    鲁道夫 • 卡尔曼在一次访问 NASA 埃姆斯研究中心时,发现他的卡尔曼滤波算法能帮助解决阿波罗计划的轨道预测问题,最终,飞船正确驶向月球,完成了人类历史上的第一次登月。卡尔曼因而一举成名,后来还被美国总统奥巴马授予了国家科学勋章。

    S-G 滤波器(Savitzky–Golay filter),它的核心思想是对一定长度窗口内的数据点进行 k 阶多项式拟合,其加权系数是通过在滑动窗口内对给定高阶多项式的最小二乘拟合得出。

    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.signal import savgol_filter
    
    N = 100  # 数据点的数量
    X = np.arange(N)  # 创建一个0到N-1的数组
    
    # 模拟100帧带有噪声的原始数据,使用正弦波和高斯噪声
    Y1 = np.sin(np.linspace(0, np.pi*2, num=N)) + np.random.normal(0, 0.1, size=N)
    
    window_length = 5      # 滑动窗口长度,该值需为正奇整数
    poly_order = 1         # 窗口内的数据点进行k阶多项式拟合,其值需要小于 window_length
    
    Y2 = []                # 用于存储平滑后的数据
    cache_data = []        # 缓存队列,用于存储当前滑动窗口内的数据
    
    for i in range(N):                       # 实时地遍历每帧噪声数据
        origin_data = Y1[i]                  # 获取当前帧的数据
        cache_data.append(origin_data)       # 将当前帧数据添加到缓存队列
    
        if i < window_length:                # 如果当前帧数小于滑动窗口长度
            smooth_data = origin_data        # 直接使用原始数据作为平滑数据
        else:
            window_data = np.array(cache_data)  # 将缓存队列转换为numpy数组
            window_data = savgol_filter(window_data, window_length, poly_order)  # 对滑动窗口数据进行Savitzky-Golay滤波平滑
            
            smooth_data = window_data[window_length//2]  # 取滑动窗口中间位置的数据作为平滑结果
            cache_data.pop(0)                            # 将缓存队列的最早数据移除,保持窗口大小不变
        
        Y2.append(smooth_data)  # 将平滑结果添加到结果列表中
    
    

观察这个过程,发现有个非常严重的 bug:被平滑的数据需要依赖前几帧,也就是说 S-G 滤波具有一定的滞后性,比如说如果 window_size = 5,那么就会滞后 2 帧。而卡尔曼滤波可以较好地解决这个问题的痛点,它只要获知上一时刻状态的估计值以及当前状态的观测值就可以计算出当前状态的估计值,因此不需要记录观测或者估计的历史信息

image-20240704110528803 image-20240704110439425

上述方程是卡尔曼滤波五个方程之一,名为状态更新 State Update Equation。其含义为:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

因此,状态更新方程为:

img

image-20240704112229327

两种方法都有一定的可信度。那能否将两种答案相融合呢,卡尔曼滤波就是做了这样的事情。**如下图所示,假设两种方法的误差都满足正态分布,如下图所示。如果正态分布越尖锐陡峭,则说明这种方法的预测结果越可信;如果越缓和平坦,则说明越不可信。**为了融合这两种方法的预测结果,我们给这两种分布分别赋予一个权重,该权重代表了这个分布对融合结果的重要性。经过融合后的分布变得比之前两种分布更加尖锐,这表明结果更加可信了。

img

方差是权重,融合结果更接近方差小的

那么如何给出一个合理的权重分布呢,这就是卡尔曼滤波要做的事情。

卡尔曼滤波模型

Kalman 滤波分为 2 个步骤**,预测(predict)和校正(correct)。**

预测是基于上一时刻状态估计当前时刻状态,

校正则是综合当前时刻的估计状态与观测状态,估计出最优的状态。

image-20240704154002242 image-20240704154031466

**预测阶段负责根据前一时刻的状态估计值来推算当前时刻的状态变量先验估计值和误差协方差先验估计值;校正阶段负责将先验估计和新的测量变量相融合改进的后验估计。**卡尔曼滤波算法是一个递归的预测—校正方法,即只要获知上一时刻状态的估计值以及当前状态的观测值就可以计算出当前状态的估计值,因此不需要记录观测或者估计的历史信息。

从上面的五个公式中,我们发现:其实卡尔曼滤波的每次迭代更新就是为了求出卡尔曼增益 K,因为它代表了融合估计值和测量值之间的权重。下面这个视频很好地讲解如何通过最小化误差协方差矩阵求出 K:、

https://www.bilibili.com/video/BV1hC4y1b7K7/?t=565.857338&spm_id_from=333.1350.jump_directly&vd_source=8272bd48fee17396a4a1746c256ab0ae

Python 代码实现

在上面过程中,只有 PQRK 四个矩阵还尚未确定。显然增益矩阵 K 是不需要初始化的,P 是误差矩阵,初始化可以是一个随机的矩阵或者 0,只要经过几次的处理基本上就能调整到正常的水平,因此也就只会影响前面几次的滤波结果。

  • Q:预测状态协方差,越小系统越容易收敛,我们对模型预测的值信任度越高;但是太小则容易发散,如果 Q 为零,那么我们只相信预测值;Q 值越大我们对于预测的信任度就越低,而对测量值的信任度就变高;如果 Q 值无穷大,那么我们只信任测量值;
  • R:观测状态协方差,如果 R 太大,则表现它对新测量值的信任度降低而更愿意相信预测值,从而使得 kalman 的滤波结果会表现得比较规整和平滑,但是其响应速度会变慢而出现滞后;
  • P:误差协方差初始值,表示我们对当前预测状态的信任度。它越小说明我们越相信当前预测状态;它的值决定了初始收敛速度,一般开始设一个较小的值以便于获取较快的收敛速度。随着卡尔曼滤波的迭代,P的值会不断的改变,当系统进入稳态之后P值会收敛成一个最小的估计方差矩阵,这个时候的卡尔曼增益也是最优的,所以这个值只是影响初始收敛速度。

假设系统的真实状态是一条正弦曲线,我们在测量过程中伴随一定正态分布的随机噪声,使用 python 模拟该过程如下:

import numpy as np
import matplotlib.pyplot as plt
plt.rcParams['figure.figsize'] = (10, 8)  # 设置图形的显示大小

# 初始化参数
n_iter = 500  # 迭代次数
sz = (n_iter,)  # 数组的大小

x = np.sin(np.linspace(0, np.pi*2, num=n_iter)) # 测量值,使用正弦函数生成
z = np.sin(np.linspace(0, np.pi*2, num=n_iter)) + np.random.normal(0, 0.1, size=n_iter) # 真实值,正弦值加上噪声

plt.figure()  # 创建一个图形
plt.plot(z,'k+',label='noisy measurements')  # 绘制噪声测量数据
plt.plot(x,color='g',label='truth value')  # 绘制真实值
plt.legend()  # 显示图例
plt.show()  # 显示图形

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

接下来我们使用卡尔曼滤波对这段噪声进行实时去燥和平滑处理:

# 为数组分配空间
xhat=np.zeros(sz)      # 后验估计值
P=np.zeros(sz)         # 后验误差估计
xhatminus=np.zeros(sz) # 先验估计值
Pminus=np.zeros(sz)    # 先验误差估计
K=np.zeros(sz)         # 增益或融合因子

# 超参数设定,实测调整
R = 0.1**2              # 观测噪声的方差
Q = 1e-4                # 过程噪声的方差

# 初始猜测
xhat[0] = 0.0
P[0] = 1.0

for k in range(1, n_iter):
    # 预测阶段
    xhatminus[k] = xhat[k-1] # 根据前一个后验估计值预测当前值
    Pminus[k] = P[k-1] + Q   # 更新预测误差的协方差

    # 更新阶段
    K[k] = Pminus[k] / (Pminus[k] + R)  # 计算卡尔曼增益
    xhat[k] = xhatminus[k] + K[k] * (z[k] - xhatminus[k]) # 根据观测更新当前估计
    P[k] = (1 - K[k]) * Pminus[k]        # 更新误差协方差

plt.plot(z, 'k+', label='noisy measurements')         # 绘制噪声测量值
plt.plot(x, color='g', label='truth value')           # 绘制真实值
plt.plot(xhat, 'b-', label='a posteri estimate')      # 绘制后验估计值
plt.legend()                                          # 显示图例
plt.show()                                            # 显示图形

image-20240704160643407

贝叶斯定理(原理)

https://www.liaoxuefeng.com/article/1565255725482019

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

贝叶斯定理的核心思想就是不断根据新的证据,将先验概率调整为后验概率,使之更接近客观事实。

在贝叶斯公式中,各个部分的定义如下:

贝叶斯公式通常写作:
[
P ( A ∣ B ) = P ( B ∣ A ) × P ( A ) P ( B ) P(A|B) = \frac{P(B|A) \times P(A)}{P(B)} P(AB)=P(B)P(BA)×P(A)
]

其中:

  • ( P(A|B) )后验概率(Posterior Probability):在观察到事件 ( B ) 之后,事件 ( A ) 发生的概率。
  • ( P(B|A) )似然概率(Likelihood):已知事件 ( A ) 发生时,观察到事件 ( B ) 的概率。
  • ( P(A) )先验概率(Prior Probability):在观察到事件 ( B ) 之前,事件 ( A ) 发生的概率。
  • ( P(B) )边际概率(Marginal Probability)标准化常数(Normalizing Constant):事件 ( B ) 发生的总概率,无论事件 ( A ) 是否发生。

在贝叶斯理论中,后验概率 ( P ( A ∣ B ) P(A|B) P(AB) ) 是我们最关心的,因为它提供了考虑了新证据后事件 ( A A A ) 的更新概率。先验概率 ( P ( A ) P(A) P(A) ) 表示在获得新的数据或证据之前对事件 ( A A A ) 发生概率的假设或估计。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1895553.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

idea删除分支并同步到gitLab以及gitLab上的分支删除

目录 idea删除分支并同步到gitLab 方法一&#xff08;推荐&#xff09; 方法二&#xff08;命令行&#xff09; gitLab上的分支删除 前言-与正文无关 ​ 生活远不止眼前的苦劳与奔波&#xff0c;它还充满了无数值得我们去体验和珍惜的美好事物。在这个快节奏的世界中&…

5.opencv深浅拷贝

图像处理的复制操作 深浅拷贝 图像复制分成两种&#xff0c;第一种假复制&#xff0c;从原图片选择一部分图片拿出来观察&#xff0c;此时新生成的图片和原图实际上是同一张图片&#xff0c;即浅拷贝 将图片的一部分复制下来&#xff0c;放到新的内存中&#xff0c;即两张完全…

ActiveAnno3D采用主动学习实现领域自适应,实现大规模数据集的快速标注(代码开源)

Abstract 大规模数据集的策划仍然成本高昂且需要大量时间和资源。数据通常需要手动标注&#xff0c;创建高质量数据集的挑战依然存在。在这项工作中&#xff0c;我们使用主动学习填补了多模态3D目标检测研究的空白。我们提出了ActiveAnno3D&#xff0c;这是一种主动学习框架&a…

基于香橙派AIpro搭建的车牌识别系统

引言 本人正有学习嵌入式的想法&#xff0c;正好碰到机会让我搞了块OrangePi AIpro&#xff08;香橙派AIpro&#xff09;开发板&#xff0c;正合我意&#xff0c;直接上手进行体验&#xff0c;顺便给大家分享下我的实践过程。 开发板介绍与初次启动 OrangePiAIPro开发板是香…

7_1_SVPWM概述

1、SPWM 正弦脉宽调制法&#xff08;SPWM&#xff09;是将每一正弦周期内的多个脉冲作自然或规则的宽度调制&#xff0c;使其依次调制出相当于正弦函数值的相位角和面积等效于正弦波的脉冲序列&#xff0c;形成等幅不等宽的正弦化电流输出。 通过调整占空比使等效电流近似为正弦…

【BUUCTF-PWN】13-jarvisoj_level2_x64

参考&#xff1a;BUU pwn jarvisoj_level2_x64 64位函数调用栈 - Nemuzuki - 博客园 (cnblogs.com) 64位&#xff0c;开启了NX保护 执行效果如下&#xff1a; main函数&#xff1a; vulnerable_function函数 read函数存在栈溢出&#xff0c;溢出距离为0x808 查找后门…

YOLOv8改进 | 代码逐行解析(三) | YOLO中的Mosaic增强详解(带你分析你的数据集是如何输入给模型,mosaic)

一、本文介绍 本文给大家带来的是YOLOv8中的Mosaic增强代码的详解,可能有部分人对于这一部分比较陌生,有的读者可能知道Mosaic增强但是不知道其工作原理,具体来说Mosaic增强就是指我们的数据集中的图片在输入给模型之前的一个处理过程(我们的图片并不是直接就输入给模型了…

信号量——Linux并发之魂

欢迎来到 破晓的历程的 博客 引言 今天&#xff0c;我们继续学习Linux线程本分&#xff0c;在Linux条件变量中&#xff0c;我们对条件变量的做了详细的说明&#xff0c;今天我们要利用条件变量来引出我们的另一个话题——信号量内容的学习。 1.复习条件变量 在上一期博客中&…

音频流格式启用数据流

音频流格式启用数据流 音频流格式启用数据流使用 AudioStreamBasicDescription 结构在哪里以及如何设置流格式 音频流格式启用数据流 在单个样本帧级别处理音频数据时&#xff0c;就像使用音频单元一样&#xff0c;仅仅指定正确的数据类型来表示音频是不够的。单个音频样本值中…

【spring MVC的执行流程】

SpringMVC可以说是Servlet的封装&#xff0c;屏蔽了Servlet的很多细节&#xff0c;比如Servlet再获取参数的时候需要不停地getParameter,现在只要在SpringMVC方法定义对应的JavaBean&#xff0c;只要属性和参数名一致&#xff0c;SpringMVC就可以帮我们实现将参数封装到JavaBea…

android应用的持续构建CI(三)-- 手动签名

一、背景 关于android应用的签名及其原理&#xff0c;很多文章都有讲述&#xff0c;无意重复赘述。 本文紧接上文&#xff0c;站在运维的角度&#xff0c;对开发是透明的。 但是它又和gradle build 构建动作是紧密相关的。 第一步使用jdk的keytool生成证书文件&#xff0c;…

kubeadm快速部署k8s集群

Kubernetes简介 Kubernetes&#xff0c;简称k8s&#xff0c;容器编排引擎&#xff0c;以API编程的方式管理安排各个容器的引擎。 k8s会在多台node服务器上调度pod进行部署和扩缩容每个pod内部可以含&#xfeff;有多个container每个container本质上就是一个服务进程 1、k8s集…

Python 3.x 下的 3D 游戏引擎

在 Python 3.x 中&#xff0c;有几个比较流行的用于开发 3D 游戏的引擎和库。虽然 Python 自身不是一个主流的游戏开发语言&#xff0c;但是可以通过这些库和引擎结合其它语言或者底层渲染引擎来实现复杂的游戏开发。 1、问题背景 在 Linux 系统中&#xff0c;尤其是 Debian 7…

clone()方法

在Java中&#xff0c;clone() 方法是一个非常有趣且强大的工具&#xff0c;用于创建对象的一个副本。这个方法位于 Object 类中&#xff0c;因此可以被所有类使用。让我们讨论一下它的几个要点&#xff1a; 什么是克隆&#xff1f; 克隆就是创建一个对象的新副本&#xff0c;这…

3-1 激活函数和神经网络思想

3-1 激活函数和神经网络思想 主目录点这里

机器学习原理之 -- 梯度提升树(GBT)原理详解

梯度提升树&#xff08;Gradient Boosting Trees, GBT&#xff09;是一种强大的机器学习算法&#xff0c;广泛应用于分类和回归任务。它通过集成多个弱学习器&#xff08;通常是决策树&#xff09;来构建一个强大的预测模型&#xff0c;具有较高的准确性和鲁棒性。本文将详细介…

android应用的持续构建CI(四)-- 依赖环境(兼容多版本的gradle和jdk)

一、背景 android应用的构建前提是&#xff0c;安装好了gradle和jdk。在实际使用的过程中&#xff0c;不同的android应用&#xff0c;对gradle和jdk的版本要求不一。 于是&#xff0c;在jenkins服务器上&#xff0c;我们需要安装多种版本的gradle和jdk。 安装过jdk的小伙伴应…

Rethinking Federated Learning with Domain Shift: A Prototype View

CVPR2023,针对分布式数据来自不同的域时,私有模型在其他域上表现出退化性能(具有域转移)的问题。提出用于域转移下联邦学习的联邦原型学习(FPL)。核心思想是构建集群原型和无偏原型,提供富有成效的领域知识和公平的收敛目标。将样本嵌入拉近到属于相同语义的集群原型,而…

昇思25天学习打卡营第10天|利用 MindSpore 实现 BERT 对话情绪识别的完整攻略

目录 环境配置 导入模块和库 准备数据集 数据集下载和压缩 数据加载和数据预处理 进行模型的构建和优化器的设置 配置和准备模型的训练过程 测量训练操作的执行时间 模型验证 模型推理 自定义推理数据集 环境配置 首先&#xff0c;利用“%%capture captured_output”来捕获…