高斯分布下的线性判别函数简介

news2024/9/27 23:21:58

协方差矩阵的性质

  • 实对称矩阵(第 i i i元素和第 j j j元素的耦合与第 j j j元素和第 i i i元素的耦合相等)
  • Eigenvalues & eigenvecters (本征值, 本征向量)

Σ ϕ i = λ i ϕ i Φ = [ ϕ 1 ϕ 2 ⋯ ϕ d ] Λ = diag ⁡ [ λ 1 , λ 2 , ⋯   , λ d ] \Sigma \phi_i=\lambda_i \phi_i \quad \Phi=\left[\phi_1 \phi_2 \cdots \phi_d\right] \quad \Lambda=\operatorname{diag}\left[\lambda_1, \lambda_2, \cdots, \lambda_d\right] Σϕi=λiϕiΦ=[ϕ1ϕ2ϕd]Λ=diag[λ1,λ2,,λd]

  • 特征向量的标准正交性
    Φ T Φ = I Φ T = Φ − 1 ⟺ ϕ i t ϕ j = { 1 , i = j 0 , i ≠ j \begin{aligned} & \Phi^T \Phi=I \\ & \Phi^T=\Phi^{-1} \end{aligned} \quad \Longleftrightarrow \quad \phi_i^t \phi_j= \begin{cases}1, & i=j \\ 0, & i \neq j\end{cases} ΦTΦ=IΦT=Φ1ϕitϕj={1,0,i=ji=j
  • 用矩阵的形式表示(有点绕,联系前面的符号定义进行理解)
    Σ Φ = Φ Λ ↔ Σ = Φ Λ Φ T ↔ Σ = ∑ i = 1 d λ i ϕ i ϕ i T \Sigma \Phi=\Phi \Lambda \leftrightarrow \Sigma=\Phi \Lambda \Phi^T \leftrightarrow \Sigma=\sum_{i=1}^d \lambda_i \phi_i \phi_i^T ΣΦ=ΦΛΣ=ΦΛΦTΣ=i=1dλiϕiϕiT
  • 矩阵对角化
    Φ T Σ Φ = Λ = [ λ 1 0 … 0 0 λ 2 … 0 ⋮ ⋮ ⋱ ⋮ 0 0 … λ d ] ⟺ ϕ i T Σ ϕ i = λ i \Phi^T \Sigma \Phi=\Lambda=\left[\begin{array}{cccc} \lambda_1 & 0 & \ldots & 0 \\ 0 & \lambda_2 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & \lambda_d \end{array}\right] \Longleftrightarrow \phi_i^T \Sigma \phi_i=\lambda_i ΦTΣΦ=Λ= λ1000λ2000λd ϕiTΣϕi=λi

Principal Component Analysis(PCA)

  • 一种降维(特征提取)方法
  • 将随机矢量投影到低维子空间,使子空间投影的重建误差最小
  • 选择本征值最大的 m ( m < d ) m(m<d) m(m<d) 个本征向量作为子空间的基(basis)

【证明】

  • 线性空间中正交变换 ( Φ T Φ = I ) \left(\Phi^T \Phi=I\right) (ΦTΦ=I) 不影响欧氏距离(样本是 d d d维的)
    ∑ j = 1 d [ ( x − μ ) T ϕ j ] 2 = ∥ x − μ ∥ 2 \sum_{j=1}^d\left[(\mathbf{x}-\mu)^T \phi_j\right]^2=\|\mathbf{x}-\mu\|^2 j=1d[(xμ)Tϕj]2=xμ2
  • 子空间投影(只取了 m m m维)
    μ + ∑ j = 1 m [ ( x − μ ) T ϕ j ] ϕ j \mu+\sum_{j=1}^m\left[(\mathbf{x}-\mu)^T \phi_j\right] \phi_j μ+j=1m[(xμ)Tϕj]ϕj
  • 投影重建误差
    r E = ∥ x − μ ∥ 2 − ∑ j = 1 m [ ( x − μ ) T ϕ j ] 2 = ∑ j = m + 1 d [ ( x − μ ) T ϕ j ] 2 r_E=\|\mathbf{x}-\mu\|^2-\sum_{j=1}^m\left[(\mathbf{x}-\mu)^T \phi_j\right]^2=\sum_{j=m+1}^d\left[(\mathbf{x}-\mu)^T \phi_j\right]^2 rE=xμ2j=1m[(xμ)Tϕj]2=j=m+1d[(xμ)Tϕj]2
  • 重建误差的期望
    E ( r E ) = E { ∑ j = m + 1 d [ ( x − μ ) T ϕ j ] 2 } = E { ∑ j = m + 1 d ϕ j T ( x − μ ) ( x − μ ) T ϕ j } = ∑ j = m + 1 d ϕ j T E [ ( x − μ ) ( x − μ ) T ] ϕ j = ∑ j = m + 1 d ϕ j T Σ ϕ j = ∑ j = m + 1 d λ j \begin{aligned} & \mathscr{E}\left(r_E\right)=\mathscr{E}\left\{\sum_{j=m+1}^d\left[(\mathbf{x}-\mu)^T \phi_j\right]^2\right\}=\mathscr{E}\left\{\sum_{j=m+1}^d \phi_j^T(\mathbf{x}-\mu)(\mathbf{x}-\mu)^T \phi_j\right\} \\ & =\sum_{j=m+1}^d \phi_j^T \mathscr{E}\left[(\mathbf{x}-\mu)(\mathbf{x}-\mu)^T\right] \phi_j=\sum_{j=m+1}^d \phi_j^T \Sigma \phi_j=\sum_{j=m+1}^d \lambda_j \\ & \end{aligned} E(rE)=E{j=m+1d[(xμ)Tϕj]2}=E{j=m+1dϕjT(xμ)(xμ)Tϕj}=j=m+1dϕjTE[(xμ)(xμ)T]ϕj=j=m+1dϕjTΣϕj=j=m+1dλj
  • 对上式取最小就意味着取 λ i \lambda_i λi最大的 m m m个本征向量作为子空间基
    在这里插入图片描述

线性变换的高斯分布

  • 对于一个线性变换: y = A t x \mathbf{y}=\mathbf{A}^t \mathbf{x} y=Atx
  • 如果 A t A = 1 \mathrm{A}^{\mathrm{t}} \mathrm{A}=1 AtA=1,叫做正交变换,相当于进行了旋转
  • 高斯分布经过线性变换后还是高斯分布: p ( y ) ∼ N ( A t μ , A t Σ A ) p(\mathbf{y}) \sim N\left(\mathbf{A}^t \boldsymbol{\mu}, \mathbf{A}^t \boldsymbol{\Sigma} \mathbf{A}\right) p(y)N(Atμ,AtΣA)
  • 如果变换矩阵是特征向量矩阵 A = Φ A=\Phi A=Φ,那么变换后的高斯分布的协方差矩阵是对角矩阵 A t ∑ A = Λ A^t \sum A=\Lambda AtA=Λ
  • 白化变换(whitening transform):更特别的,如果构造 A w = Φ Λ − 1 / 2 \mathbf{A}_w=\boldsymbol{\Phi} \boldsymbol{\Lambda}^{-1 / 2} Aw=ΦΛ1/2,那么变换后的高斯分布的协方差矩阵是单位矩阵
    A w t Σ A w = Λ − 1 / 2 Φ t Σ Φ Λ − 1 / 2 = Λ − 1 / 2 Λ Λ − 1 / 2 = I \begin{aligned} & A_w^t \Sigma A_w=\Lambda^{-1 / 2} \Phi^t \Sigma \Phi \Lambda^{-1 / 2} =\Lambda^{-1 / 2} \Lambda \Lambda^{-1 / 2}=I \end{aligned} AwtΣAw=Λ1/2ΦtΣΦΛ1/2=Λ1/2ΛΛ1/2=I

高斯密度下的判别函数

  • 判别函数
    g i ( x ) = ln ⁡ p ( x ∣ ω i ) + ln ⁡ P ( ω i ) g_i(\mathbf{x})=\ln p\left(\mathbf{x} \mid \omega_i\right)+\ln P\left(\omega_i\right) gi(x)=lnp(xωi)+lnP(ωi)
    回忆一下多变量高斯概率密度函数:
    p ( x ∣ ω i ) = 1 ( 2 π ) d / 2 ∣ Σ i ∣ 1 / 2 exp ⁡ [ − 1 2 ( x − μ i ) t Σ i − 1 ( x − μ i ) ] p\left(\mathbf{x} \mid \omega_i\right)=\frac{1}{(2 \pi)^{d / 2}\left|\Sigma_i\right|^{1 / 2}} \exp \left[-\frac{1}{2}\left(\mathbf{x}-\mu_i\right)^t \Sigma_i^{-1}\left(\mathbf{x}-\mu_i\right)\right] p(xωi)=(2π)d/2Σi1/21exp[21(xμi)tΣi1(xμi)]
    于是
    g i ( x ) = − 1 2 ( x − μ i ) t Σ i − 1 ( x − μ i ) − d 2 ln ⁡ 2 π − 1 2 ln ⁡ ∣ Σ i ∣ + ln ⁡ P ( ω i ) g_i(\mathbf{x})=-\frac{1}{2}\left(\mathbf{x}-\boldsymbol{\mu}_i\right)^t \boldsymbol{\Sigma}_i^{-1}\left(\mathbf{x}-\boldsymbol{\mu}_i\right)-\frac{d}{2} \ln 2 \pi-\frac{1}{2} \ln \left|\Sigma_i\right|+\ln P\left(\omega_i\right) gi(x)=21(xμi)tΣi1(xμi)2dln2π21lnΣi+lnP(ωi)

下面对不同的协方差矩阵进行讨论,介绍两种特例

  • Σ i = σ 2 I \Sigma_i=\sigma^2 I Σi=σ2I,则舍去与类别无关的常数项后,
    g i ( x ) = − ∥ x − μ i ∥ 2 2 σ 2 + ln ⁡ P ( ω i ) g_i(\mathrm{x})=-\frac{\left\|\mathrm{x}-\boldsymbol{\mu}_i\right\|^2}{2 \sigma^2}+\ln P\left(\omega_i\right) gi(x)=2σ2xμi2+lnP(ωi)
    ∥ x − μ i ∥ 2 = ( x − μ i ) t ( x − μ i ) \left\|\mathrm{x}-\boldsymbol{\mu}_i\right\|^2=\left(\mathrm{x}-\boldsymbol{\mu}_i\right)^t\left(\mathrm{x}-\boldsymbol{\mu}_i\right) xμi2=(xμi)t(xμi),则
    g i ( x ) = − 1 2 σ 2 [ x t x − 2 μ i t x + μ i t μ i ] + ln ⁡ P ( ω i ) g_i(\mathrm{x})=-\frac{1}{2 \sigma^2}\left[\mathrm{x}^t \mathrm{x}-2 \mu_i^t \mathrm{x}+\mu_i^t \mu_i\right]+\ln P\left(\omega_i\right) gi(x)=2σ21[xtx2μitx+μitμi]+lnP(ωi)
    再次舍去与类别无关常数项,得到最终的判别函数
    g i ( x ) = w i t x + w i 0 w i = 1 σ 2 μ i w i 0 = − 1 2 σ 2 μ i t μ i + ln ⁡ P ( ω i ) \begin{aligned} & g_i(\mathrm{x})=\mathbf{w}_i^t \mathrm{x}+w_{i 0} \\ & \mathbf{w}_i=\frac{1}{\sigma^2} \boldsymbol{\mu_i} \quad w_{i 0}=\frac{-1}{2 \sigma^2} \boldsymbol{\mu_i}^t \boldsymbol\mu_i+\ln P\left(\omega_i\right) \end{aligned} gi(x)=witx+wi0wi=σ21μiwi0=2σ21μitμi+lnP(ωi)
    如果只有两类:
    g i ( x ) = g j ( x ) w t ( x − x 0 ) = 0 w = μ i − μ j x 0 = 1 2 ( μ i + μ j ) − σ 2 ∥ μ i − μ j ∥ 2 ln ⁡ P ( ω i ) P ( ω j ) ( μ i − μ j ) \begin{gathered} g_i(\mathrm{x})=g_j(\mathrm{x}) \\ \mathrm{w}^t\left(\mathrm{x}-\mathrm{x}_0\right)=0 \quad \mathbf{w}=\boldsymbol{\mu}_i-\boldsymbol{\mu}_j \\ \mathrm{x}_0=\frac{1}{2}\left(\boldsymbol{\mu}_i+\boldsymbol{\mu}_j\right)-\frac{\sigma^2}{\left\|\boldsymbol{\mu}_i-\boldsymbol{\mu}_j\right\|^2} \ln \frac{P\left(\omega_i\right)}{P\left(\omega_j\right)}\left(\boldsymbol{\mu}_i-\boldsymbol{\mu}_j\right) \end{gathered} gi(x)=gj(x)wt(xx0)=0w=μiμjx0=21(μi+μj) μiμj 2σ2lnP(ωj)P(ωi)(μiμj)
    如果两类先验概率相等,分界面就是两类均值连线的垂直平分面
    在这里插入图片描述
  • Σ i = Σ \Sigma_i=\Sigma Σi=Σ,即所有类别的协方差矩阵都相等
    g i ( x ) = − 1 2 ( x − μ i ) t Σ i − 1 ( x − μ i ) − d 2 ln ⁡ 2 π − 1 2 ln ⁡ ∣ Σ i ∣ + ln ⁡ P ( ω i ) ⟹ g i ( x ) = − 1 2 ( x − μ i ) t Σ − 1 ( x − μ i ) + ln ⁡ P ( ω i ) \begin{gathered} g_i(\mathbf{x})=-\frac{1}{2}\left(\mathbf{x}-\boldsymbol{\mu}_i\right)^t \boldsymbol{\Sigma}_i^{-1}\left(\mathbf{x}-\boldsymbol{\mu}_i\right)-\frac{d}{2} \ln 2 \pi-\frac{1}{2} \ln \left|\boldsymbol{\Sigma}_i\right|+\ln P\left(\omega_i\right) \\ \Longrightarrow g_i(\mathbf{x})=-\frac{1}{2}\left(\mathbf{x}-\boldsymbol{\mu}_i\right)^t \boldsymbol{\Sigma}^{-1}\left(\mathbf{x}-\boldsymbol{\mu}_i\right)+\ln P\left(\omega_i\right) \end{gathered} gi(x)=21(xμi)tΣi1(xμi)2dln2π21lnΣi+lnP(ωi)gi(x)=21(xμi)tΣ1(xμi)+lnP(ωi)
    最终得到的线性判别函数是
    g i ( x ) = w i t x + w i 0 w i = Σ − 1 μ i w i 0 = − 1 2 μ i t Σ − 1 μ i + ln ⁡ P ( ω i ) g_i(\mathbf{x})=\mathbf{w}_i^t \mathbf{x}+w_{i 0}\\ \mathbf{w}_i=\boldsymbol{\Sigma}^{-1} \boldsymbol{\mu}_i \quad w_{i 0}=-\frac{1}{2} \boldsymbol{\mu}_i^t \boldsymbol{\Sigma}^{-1} \boldsymbol{\mu}_i+\ln P\left(\omega_i\right) gi(x)=witx+wi0wi=Σ1μiwi0=21μitΣ1μi+lnP(ωi)
    如果只有两类
    w = Σ − 1 ( μ i − μ j ) \mathbf{w}=\Sigma^{-1}\left(\mu_i-\mu_j\right) w=Σ1(μiμj)
    x 0 = 1 2 ( μ i + μ j ) − ln ⁡ [ P ( ω i ) / P ( ω j ) ] ( μ i − μ j ) t Σ − 1 ( μ i − μ j ) ( μ i − μ j ) \mathrm{x}_0=\frac{1}{2}\left(\boldsymbol{\mu}_i+\boldsymbol{\mu}_j\right)-\frac{\ln \left[P\left(\omega_i\right) / P\left(\omega_j\right)\right]}{\left(\boldsymbol{\mu}_i-\boldsymbol{\mu}_j\right)^t \boldsymbol{\Sigma}^{-1}\left(\boldsymbol{\mu}_i-\boldsymbol{\mu}_j\right)}\left(\boldsymbol{\mu}_i-\boldsymbol{\mu}_j\right) x0=21(μi+μj)(μiμj)tΣ1(μiμj)ln[P(ωi)/P(ωj)](μiμj)
    如果两类的先验概率相等,那么分界面还是经过两类均值连线的中点,但不再垂直。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/129500.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

oracle安装完成后,只能在本地链接

Oracle搭建好了之后&#xff0c;发现只能在服务器本机链接oracle&#xff0c;其他客户端无法链接&#xff0c;这是因为监听地址是本地localhost&#xff0c;重建监听即可 lsnrctl status 查看监听的名称 lsnrctl stop 停止监听&#xff0c;并关闭数据库 sqlplus / as sysdba…

基于人工神经网络的空压机负荷预测(Matlab代码实现)

&#x1f4a5;&#x1f4a5;&#x1f49e;&#x1f49e;欢迎来到本博客❤️❤️&#x1f4a5;&#x1f4a5; &#x1f3c6;博主优势&#xff1a;&#x1f31e;&#x1f31e;&#x1f31e;博客内容尽量做到思维缜密&#xff0c;逻辑清晰&#xff0c;为了方便读者。 ⛳️座右铭&a…

爱站权重怎么查询?怎么做爱站号权重高一些?

这一篇又是网站权重查询和提高权重的分享&#xff0c;爱站权重怎样查询&#xff1f;怎么提高爱站权重&#xff1f; 大家一起来看看嘿。 爱站权重怎样查询&#xff1f; 第一步&#xff1a;打开iis7站长之家seo批量检测&#xff0c;在左上方的框框里面输入需要的域名/网站地址…

数据结构-二叉树详解

目录 一.二叉树 1.概念及结构 2.特殊的二叉树 3.性质与解题 4.存储结构 二.顺序结构与堆 1.堆的概念及结构 2.堆的创建 3.堆的插入 4.堆的删除 5.堆的具体实现 6.堆的应用&#xff1a;堆排序和OPK问题 三.链式二叉树 1.前序/中序/后序遍历 2.层序遍历 3.结点个数…

effective C++读书笔记2

目录 了解C默认编写并调用的函数 若不想使用编译器自动生成的函数&#xff0c;就要明确拒绝 为多态基类声明virtual析构函数 不要让异常逃离析构函数 绝不在构造和析构过程中调用virtual函数 在operator处理自我赋值 复制对象时不要忘记其每一个成分 这是effective C第二章…

Java高效率复习-SpringMVC[SpringMVC]

SpringMVC的简介 表述层前端页面Servlet 入门案例-创建SpringMVC 创建Maven工程 创建Maven工程后&#xff0c;pom文件的打工方式是war包&#xff0c;表示web应用打包方式。 正确的web.xml文件创建路径 src\main\webapp\WEB-INF\web.xml添加依赖 spring-web:5.3.1是SpringM…

java 多线程编程

Java 给多线程编程提供了内置的支持。 一条线程指的是进程中一个单一顺序的控制流&#xff0c;一个进程中可以并发多个线程&#xff0c;每条线程并行执行不同的任务。 多线程是多任务的一种特别的形式&#xff0c;但多线程使用了更小的资源开销。 这里定义和线程相关的另一个…

用户手册编写的终极指南

用户手册对于寻求了解产品和流程的用户来说是非常重要的。有时&#xff0c;它们甚至是一个公司向客户销售其产品的法律要求。 客户往往会在联系你的客户支持团队之前查阅你的用户手册&#xff0c;所以你的手册有可能为你节省支持成本。 在你的用户手册上投入大量时间和精力是…

PHP---表单传值

目录 一、表单传值的概念 二、表单传值的方式 &#xff08;1&#xff09;GET和POST的区别 &#xff08;2&#xff09;GET方式 &#xff08;3&#xff09;POST方式 三、接受表单数据 四、处理复选框的注意点 (1)单选框的数据处理 &#xff08;2&#xff09;复选框的数据…

机器学习100天(二十一):021 分类模型评价指标-ROC曲线和AUC

机器学习100天!今天讲的是:分类模型评价指标-ROC曲线和AUC 《机器学习100天》完整目录:目录 首先基于混淆矩阵,介绍两个新的概念:真正例率(TPR)和假正例率(FPR)。真正例率是预测为正且实际为正的样本的占所有正例样本的比例。TPR 越大,预测的正类中实际正类越多。计…

跳板攻击原理及如何追踪定位攻击者主机(下)

跳板攻击溯源中&#xff0c;我们需要先确定本地网络中是否存在攻击者的跳板。具体可参考&#xff08;跳板攻击原理及如何追踪定位攻击者主机&#xff08;上&#xff09;&#xff09; 那么在本地网络中发现跳板后&#xff0c;又要如何追踪定位攻击者主机&#xff1f; 这种情况…

【苹果相册推】增加家庭对方下载 zookeeper-3.4.12.tar.gz #编削配置装备摆设 vim conf/zoo.cfg

推荐内容IMESSGAE相关 作者推荐内容iMessage苹果推软件 *** 点击即可查看作者要求内容信息作者推荐内容1.家庭推内容 *** 点击即可查看作者要求内容信息作者推荐内容2.相册推 *** 点击即可查看作者要求内容信息作者推荐内容3.日历推 *** 点击即可查看作者要求内容信息作者推荐…

串口助手(简洁版)上位机软件零基础教程( C# + visual studio2019)

最近在开发一个项目&#xff0c;需要串口通信&#xff0c;所以学习怎么自己做一个串口通信助手 1.工程的建立 打开vs软件 -》 左上角 “文件”选项 -》 新建 -》 项目 &#xff0c;弹出对话框如下&#xff1a; 点击visual c# 选项卡 -》 1. 选择 Windows 桌面 -》 2.选择Windo…

互联网全面回暖?2023年主线任务:搞钱

2022年尾声将近&#xff0c;不知道大家最近有没有感受到一股「春风」&#xff0c;防疫政策不断放开&#xff0c;上下班地铁渐渐恢复了往日的繁忙和拥挤&#xff0c;经济正在加速复苏...... 作为职场人&#xff0c;大家最关心的问题就是&#xff0c;2023年就业形势是否会回暖&a…

CAN工具 - ValueCAN - 基础介绍

CAN/CANFD通讯广泛存在于整个车载网络中&#xff0c;几乎每一块软硬件的开发都需要用到CAN工具&#xff0c;除了我们所熟知的CANoe之外&#xff0c;今天我们来介绍一下另外一个CAN工具ValueCAN&#xff0c;这个工具个人认为应该在PCAN之上CANoe之下&#xff08;好用程度&#x…

Two Coupled Rejection Metrics Can Tell Adversarial Examples Apart

实现鲁棒性的一种补充方式是引入拒绝选项&#xff0c;允许模型不返回对不确定输入的预测&#xff0c;其中confidence是常用的确定性代理。 与此例程一起&#xff0c;我们发现置信度和校正置信度&#xff08;R-Con&#xff09;可以形成两个耦合的拒绝度量&#xff0c;这可以证明…

SQL Server2008数据库升级至SQL Server2012

文章目录引言升级步骤安装SQL Server 2008 R2 sp2清除处于非活动状态的SQL Server实例一些体会引言 今天接到了一个需求&#xff0c;服务器上的数据库需要从SQL Server2008升级到2012。根据之前的经验&#xff0c;感觉是一个非常有意思的过程&#xff08;事实上也是。这个过程…

离散数学—数理逻辑

数理逻辑部分数理逻辑命题逻辑逻辑连接词命题符号化命题公式命题公式的等价矛盾式与重言式※重言关系蕴含式的证明※重言关系等价式的证明析取范式与合取范式主析取范式主合取范式对于两种范式&#xff0c;我的一些看法命题逻辑推理直接推理间接推理谓词逻辑谓词演算的等价式和…

解决Ubuntu/Fedora/Arch有些位置无法切换输入法输入中文

在使用Linux的时候&#xff0c;往往会遇到有些位置无法输入中文的情况&#xff0c;这是怎么造成的呢&#xff1f; 类似下图这种位置&#xff0c;我想搜一下文件&#xff0c;但是发现无法切换输入法&#xff0c;不能输入中文&#xff0c;现在我们来解决一下。 首先安装gedit&…

86.分隔链表

给你一个链表的头节点 head 和一个特定值 x &#xff0c;请你对链表进行分隔&#xff0c;使得所有 小于 x 的节点都出现在 大于或等于 x 的节点之前。 你应当 保留 两个分区中每个节点的初始相对位置。 示例 1&#xff1a; 输入&#xff1a;head [1,4,3,2,5,2], x 3 输出&am…