无线通信:基于深度强化学习

news2024/11/17 7:42:05

这里写自定义目录标题

  • 异构蜂窝网络:用户关联和信道分配
    • a stochastic game
    • Multi-Agent Q-Learning Method
    • Multi-Agent dueling double DQN Algorithm
  • 分布式动态下行链路波束成形
    • Limited-Information Exchange Protocol
    • DistributedDRL-Based DTDE Scheme for DDBC
      • DistributedDRL-Based DTDE Scheme for DDBC
  • 空基网络中的分布式多用户接入控制:BS和UE关联
    • 基于分布式DRL的用户驱动接入控制算法
    • 基于分布式DRL的用户驱动接入控制算法
    • 仿真和基准算法
  • 天基网络中的LEO卫星多用户信道分配:RB分配
    • 基于协作DRL的 LEO 卫星多用户信道分配
    • 协作DRL算法:LEO卫星端和地面UE端
    • 仿真和基准算法
  • 天基网络中的LEO地球固定小区设计:波束角度、RB分配、RB预配置子集
    • 基于多时间尺度DRL的协作资源优化算法
      • LEO 卫星侧MDP 模型
      • UE 侧MDP 模型
    • 多时间尺度多智能体DRL算法
    • 仿真
    • 基准算法
  • 天空融合网络中的多维资源优化:卫星的频谱分配、UAV轨迹、UAV和UE关联
    • 多层网络节点的 MDP 模型设计
      • UE 侧MDP 模型
      • UAV 中继侧MDP 模型
      • GEO 卫星侧MDP 模型
    • 场景适配的多层DRL决策算法设计
      • 联合式多层算法
      • 独立式多层算法
      • 层次式多层算法
      • 联邦式多层算法
      • 多层DRL决策算法流程图
    • 仿真

面向非地面网络的智能无线资源管理机制与算法研究
[1]曹阳. 面向非地面网络的智能无线资源管理机制与算法研究[D]. 电子科技大学, 2023. DOI: 10.27005/d.cnki.gdzku.2023.000168.

异构蜂窝网络:用户关联和信道分配

N. Zhao, Y. -C. Liang, D. Niyato, Y. Pei, M. Wu and Y. Jiang, “Deep Reinforcement Learning for User Association and Resource Allocation in Heterogeneous Cellular Networks,” in IEEE Transactions on Wireless Communications, vol. 18, no. 11, pp. 5141-5152, Nov. 2019, doi: 10.1109/TWC.2019.2933417.

Three-tier heterogeneous cellular network.
L BSs → N UEs
K orthogonal channels

the Joint user association and resource allocation Optimization Problem

variables: discrete
1.bli(t)=1: the i i ith UE chooses to associate with the BS l l l at time t t t
2.cik(t)=1: the i i ith UE utilizes the channel C k Ck Ck at time t t t
constraints
1.each UE can only choose at most one BS at any time
2.each UE can only choose at most one channel at any time
3.the SINR of the i t h ith ith UE ≥

a stochastic game

state
si(t) ∈{0, 1}
si(t)=0 means that the ith UE cannot meet its the minimum QoS requirement, that is, Γi(t) < Ωi
the number of possible states is 2 N 2^N 2N

action
alki(t)={bli(t),cik(t)},
1.bli(t)=1: the i i ith UE chooses to associate with the BS l l l at time t t t
2.cik(t)=1: the i i ith UE utilizes the channel C k Ck Ck at time t t t
The number of possible actions of each UE is L K LK LK = L种选择方式 * K种选择方式

reward
the long-term reward Φi = the weighted sum of the instantaneous rewards over a finite period T

the reward of the ith UE = the ith UE’s utility - the action-selection cost Ψi
Ψi > 0. Note that the negative reward (−Ψi) acts as a punishment.
to guarantee the minimum QoS of all UEs, this negative reward should be set big enough.

the ith UE’s utility = \rho_i * the total transmission capacity of the ith UE - the total transmission cost associated with the ith UE

Multi-Agent Q-Learning Method

At the beginning of each training episode, the network state is initialized through message passing.

  1. Each UE is connected to the neighboring BS with the maximum received signal power.
    By using a pilot signal, each UE can measure the received power from the associated BS and the randomly-selected channel.
  2. Then, each UE reports its own current state to its current associated BS.
    By the message passing among the BSs through the backhaul communication link, the global state information of all UEs is obtained.
  3. Then, the BSs send this global state informations to all UEs.

Each episode ends when the QoS of all UEs is satisfied or when the maximum step T is reached.
The total episode reward is the accumulation of instantaneous rewards of all steps within an episode.
Multi-Agent Q-Learning Method

Q i ( s , a i ) = Q i ( s , a i ) + δ [ u i ( s , a i , π − i ) + γ max ⁡ a i ′ ∈ A i Q i ( s ′ , a i ′ ) − Q i ( s , a i ) [ u i ( s , a i , π − i ) + γ max ⁡ a i ′ ∈ A i Q i ( s ′ , a i ′ ) ] , {Q_{i}}(s,a_{i})={Q_{i}}(s,a_{i})+ \delta \left[{ {u_{i}}(s,a_{i},{\mathcal{ \pi }}_{-i}) + \gamma \max \limits _{a_{i}' \in {\mathcal{ A}}_{i}} {Q_{i}}({s'},{a_{i}'})} {- {Q_{i}}(s,a_{i})\vphantom {\left [{ {u_{i}}(s,a_{i},{\mathcal{ \pi }}_{-i}) + \gamma \max \limits _{a_{i}' \in {\mathcal{ A}}_{i}} {Q_{i}}({s'},{a_{i}'})}\right.} }\right], Qi(s,ai)=Qi(s,ai)+δ[ui(s,ai,πi)+γaiAimaxQi(s,ai)Qi(s,ai)[ui(s,ai,πi)+γaiAimaxQi(s,ai)],

Multi-Agent dueling double DQN Algorithm

dueling double deep Q-network (D3QN)

A NN function approximator Q i ( s , a i ; θ ) ≈ Q i ∗ ( s , a i ) Q_{i}(s,a_{i};{\theta }) \approx {Q_{i}^{*}}(s,a_{i}) Qi(s,ai;θ)Qi(s,ai) with weights θ is used as an online network.
The DQN utilizes a target network alongside the online network to stabilize the overall network performance.

experience replay
During learning, instead of using only the current experience (s, ai,ui(s, ai),s′), the NN can be trained through sampling mini-batches of experiences from replay memory D uniformly at random.
By reducing the correlation among the training examples, the experience replay strategy ensures that the optimal policy cannot be driven to a local minima.

double DQN
since the same values are used to select and evaluate an action in Q-learning and DQN methods, Q-value function may be over-optimistically estimated.
Thus, double DQN (DDQN) [44] is used to mitigate the above problem

dueling architecture
The advantage function A(s, ai) describes the advantage of the action ai compared with the other possible actions.
This dueling architecture can lead to better policy evaluation.
Three hidden layers with dueling architecture used in our D3QN.
Reinforcement learning with DDQN strategy.

L i ( θ ) = E s , a i , u i ( s , a i ) , s ′ [ ( y i D Q N − Q i ( s , a i ; θ ) ) 2 ] , {L_{i}}({\theta }) = {E_{s,a_{i},u_{i}(s,a_{i}),s'}}[{(y_{i}^{DQN} - Q_{i}(s,a_{i};{\theta }))^{2}}], Li(θ)=Es,ai,ui(s,ai),s[(yiDQNQi(s,ai;θ))2],
上图里面红色的y为
y i D D Q N = u i ( s , a i ) + γ Q i ( s ′ , arg ⁡ max ⁡ a i ′ ∈ A i Q i ( s ′ , a i ′ ; θ ) ; θ − ) . y_{i}^{DDQN} = {u_{i}}(s,a_{i}) + \gamma Q_{i}\left ({s',\mathop {\arg \max }\limits _{a'_{i} \in {\mathcal{ A}}_{i}} Q_{i}(s',a'_{i};{\theta });\theta ^{-} }\right). yiDDQN=ui(s,ai)+γQi(s,aiAiargmaxQi(s,ai;θ);θ).

Multi-Agent dueling double DQN Algorithm

分布式动态下行链路波束成形

J. Ge, Y. -C. Liang, J. Joung and S. Sun, “Deep Reinforcement Learning for Distributed Dynamic MISO Downlink-Beamforming Coordination,” in IEEE Transactions on Communications, vol. 68, no. 10, pp. 6070-6085, Oct. 2020, doi: 10.1109/TCOMM.2020.3004524.

波束成形论文代码
multi-cell MISO-IC model
multi-cell MISO-IC model
a downlink cellular network of K cells
no intra-cell interference
all the BSs are equipped with a uniform linear array having N N N ( N ≥ 1 N≥1 N1) antenna elements.

max ⁡ W ( t )   ∑ k = 1 K C k ( W ( t ) ) 8a s . t .   0 ≤ ∥ w k ( t ) ∥ 2 ≤ p m a x ,   ∀ k ∈ K , 8b \max _{\mathbf {W}{(t)}}~\sum _{k=1}^{K}C_{k}(\mathbf {W}{(t)}) \text{8a}\\{\mathrm{ s.t.}}~0\leq \left \|{\mathbf {w}_{k}{(t)}}\right \|^{2} \leq p_{\mathrm{ max}},~\forall k \in \mathcal {K},\text{8b} maxW(t) k=1KCk(W(t))8as.t. 0wk(t)2pmax, kK,8b
the beamformer of BS k k k
the available maximum transmit power budget of each BS

Limited-Information Exchange Protocol

a downlink data transmission framework
The first phase (phase 1) is a preparing phase for the subsequent data transmission
the second phase (phase 2) is for the downlink data transmission.
in the centralized approaches, the cascade procedure of collecting global CSI, computing beamformers, and sending beamformers to the corresponding BSs is supposed to be carried out within phase 1.

limited-information exchange protocol
Designed limited-information exchange protocol in time slot t.
BSs are able to share their historical measurements and other information with their interferers and interfered neighbors.

  1. The received interference power from interferer j ∈ I k ( t ) j∈Ik(t) jIk(t) in time slot t − 1 t−1 t1
    , i.e., ∣ ∣ h † j , k ( t − 1 ) w j ( t − 1 ) ∣ ∣ 2 ∣∣h†j,k(t−1)wj(t−1)∣∣2 ∣∣hj,k(t1)wj(t1)∣∣2 .
  2. The total interference-plus-noise power of UE k k k in time slot t − 1 t−1 t1
    , i.e., ∑ l ≠ k ∣ ∣ h † l , k ( t − 1 ) w l ( t − 1 ) ∣ ∣ 2 + σ 2 ∑l≠k∣∣h†l,k(t−1)wl(t−1)∣∣2+σ2 l=k∣∣hl,k(t1)wl(t1)∣∣2+σ2 .
  3. The achievable rate of direct link k k k in time slot t − 1 t−1 t1
    , i.e., C k ( W ( t − 1 ) ) Ck(W(t−1)) Ck(W(t1)) .
  4. The equivalent channel gain of direct link k k k in time slot t − 1 t−1 t1
    , i.e., ∣ ∣ h † k , k ( t − 1 ) w ¯ k ( t − 1 ) ∣ ∣ 2 ∣∣h†k,k(t−1)w¯k(t−1)∣∣2 ∣∣hk,k(t1)w¯k(t1)∣∣2 .

DistributedDRL-Based DTDE Scheme for DDBC

distributed-training-distributed-executing (DTDE)
distributed dynamic downlink-beamforming coordination (DDBC)

each BS is an independent agent
a multi-agent reinforcement learning problem
distributedDRL-based DTDE scheme
Illustration of the proposed distributedDRL-based DTDE scheme in the considered multi-agent system.

  1. Actions
    A = { ( p , c ) ,   p ∈ P ,   c ∈ C } , \mathcal {A} = \{(p, {\mathbf{c}}),~p\in \mathcal {P},~{\mathbf{c}}\in \mathcal {C}\}, A={(p,c), pP, cC},
    P = { 0 , 1 Q p o w − 1 p m a x ,    2 Q p o w − 1 p m a x ,    ⋯   ,    p m a x } \mathcal {P}=\left \{{0, \tfrac {1}{Q_{\mathrm{ pow}}-1}p_{\mathrm{ max}},\,\,\tfrac {2}{Q_{\mathrm{ pow}}-1}p_{\mathrm{ max}},\,\,\cdots,\,\,p_{\mathrm{ max}}}\right \} P={0,Qpow11pmax,Qpow12pmax,,pmax}
    C = { c 0 ,    c 1 ,    ⋯   ,    c Q c o d e − 1 } \mathcal {C}=\left \{{\mathbf {c}_{0},\,\,\mathbf {c}_{1},\,\,\cdots,\,\,\mathbf {c}_{Q_{\mathrm{ code}}-1}}\right \} C={c0,c1,,cQcode1}
    1.the transmit power of BS k in time slot t
    2.code c k ( t ) ck(t) ck(t)
    the total number of available actions is Q = Q p o w Q c o d e Q=QpowQcode Q=QpowQcode
  2. States
    1.Local Information
    2.Interferers’ Information
    3.Interfered Neighbors’ Information
  3. Reward
    the achievable rate of agent k k k
    the penalty on BS k is defined as the sum of the achievable rate losses of the interfered neighbors j∈Ok(t+1) , which are interfered by BS k , as follows:

DistributedDRL-Based DTDE Scheme for DDBC

DistributedDRL-Based DTDE Scheme for DDBC
In training step t , the prediction error
L ( θ ) = 1 2 M b ∑ ⟨ s , a , r , s ′ ⟩ ∈ D ( r ′ − q ( s , a ; θ ) ) 2 L(\boldsymbol {\theta })= \frac {1}{2M_{b}}\sum \limits _{\langle s,a,r,s'\rangle \in \mathcal {D}}\left ({r'-q(s,a; \boldsymbol {\theta })}\right)^{2} L(θ)=2Mb1s,a,r,sD(rq(s,a;θ))2
the target value of reward
r ′ = r + γ max ⁡ a ′ q ( s ′ , a ′ ; θ − ) r'= r + \gamma \max \limits _{a'}q(s',a'; \boldsymbol {\theta }^{-}) r=r+γamaxq(s,a;θ)

the optimizer returns a set of gradients shown in (22) to update the weights of the trained DQN through the back-propagation (BP) technique
∂ L ( θ ) ∂ θ = 1 M b ∑ ⟨ s , a , r , s ′ ⟩ ∈ D ( r ′ − q ( s , a ; θ ) ) ∇ q ( s , a ; θ ) . \frac {\partial L(\boldsymbol {\theta })}{\partial \boldsymbol {\theta }}= \frac {1}{M_{b}}\sum _{\langle s,a,r,s'\rangle \in \mathcal {D}}\left ({r'-q(s,a; \boldsymbol {\theta })}\right)\nabla q(s,a; \boldsymbol {\theta }). θL(θ)=Mb1s,a,r,sD(rq(s,a;θ))q(s,a;θ).

空基网络中的分布式多用户接入控制:BS和UE关联

Y. Cao, S. -Y. Lien and Y. -C. Liang, “Deep Reinforcement Learning For Multi-User Access Control in Non-Terrestrial Networks,” in IEEE Transactions on Communications, vol. 69, no. 3, pp. 1605-1619, March 2021, doi: 10.1109/TCOMM.2020.3041347.

基于空基平台的 NTN 实现方案
K架固定翼式UAV作为NT-BS,为特定区域内的M个移动UE提供下行传输服务
问题
ci,j(t)表示第j个NT-BS对第i个UE在时隙t的传输速率
变量:ui,j(t)表示第i个UE在时隙t是否接入第j个NT-BS
约束:每个UE在单个时隙只能接入一个NT-BS

基于分布式DRL的用户驱动接入控制算法

每个用户均作为独立的智能体,利用DQN在UE侧建立本地接入决策模块,并且每个UE仅采用本地观测量自主地完成NT-BS选择。

状态空间
si(t)表示第i个UE在时隙t的状态(4K+1个元素)
1.第i个用户在时隙t−1所接入的NT-BS标号(K个元素)
2.第i个用户处在时隙t−1和时隙t来自各NT-BS的RSS(2K个元素)
3.每个NT-BS在时隙t−1的接入用户数目(K个元素)
4.第i个UE在时隙t−1实现的传输速率(1个元素)

动作空间
ai(t)表示第i个UE在时隙t的动作(K个元素)
ui,j(t)表示第i个UE在时隙t是否接入第j个NT-BS

奖励函数
第i个UE在第t个时隙内的奖励函数
ri(t)=ri−(t)−ηφi(t)
UE获得的本地奖励
该UE对接入相同NT-BS的其他UE和速率所造成的影响

第i个UE的本地奖励:由第i个UE在当前时隙的传输速率和对应的切换代价所决定
ri−(t)=ωi(t),ai(t)=ai(t−1),
ri−(t)=ωi(t)−C,ai(t) ̸=ai(t−1).

第i个UE采用特定接入决策对集合Oj(t)中其他UE造成的影响φi(t)=
在假定第i个UE没有接入第j个NT-BS的情况下第k个UE的传输速率ωk−i(t)-第k个UE的真实传输速率ωk(t)
对k求和

UE端采用DQN
用户驱动的智能接入控制方案
用户驱动的智能接入控制方案

基于分布式DRL的用户驱动接入控制算法

基于分布式DRL的用户驱动接入控制算法

仿真和基准算法

  1. RSS 算法:在每个时隙,每个UE 选择可以提供最强RSS 的NT-BS 接入。
  2. Q 学习算法 [122]:在该算法中,每个UE 采用表格形式函数(即 Q 表格) 来估计每个状态-动作对的 Q 值。在每个时隙,每个UE 根据所建立的 Q 表格做 出NT-BS 选择。
  3. 置信区间上界 (Upper Confidence Bound, UCB) 算法 [123]:在UCB 算法中,UE 在每个时隙根据下列公式确定其NT-BS 选择
  4. 随机算法:在该算法中,每个UE 在每个时隙随机选择一个NT-BS 接入。
  5. 搜索算法(最优结果):为了获得最优结果,该算法假定存在一个集中决 策节点实时收集全局网络信息。

M = 40 个UE 和 K = 6 个NT-BS

天基网络中的LEO卫星多用户信道分配:RB分配

Y. Cao, S. -Y. Lien and Y. -C. Liang, “Multi-tier Collaborative Deep Reinforcement Learning for Non-terrestrial Network Empowered Vehicular Connections,” 2021 IEEE 29th International Conference on Network Protocols (ICNP), Dallas, TX, USA, 2021, pp. 1-6, doi: 10.1109/ICNP52444.2021.9651962.

多波束LEO卫星下行传输系统
多波束LEO卫星下行传输系统
每颗LEO卫星采用多波束技术在地面形成N个频率复用因子为1的波束小区,并且每个波束小区内有M个移动UE。

在第t个时隙中,第j个小区中第i个UE在第k个RB可以实现的下行传输速率可以表示为ci,j,k(t)
在第t个时隙中,第j个小区中第i个UE可以实现的下行传输速率可以表示为 ci,j(t) rate
UE满意度αi,j(t):描述LEO卫星为UE分配的RB数目与该UE真实的RB数目需求之间的偏差 UE满意度
速率-满意度效用函数Ui,j(t) = wr ci,j(t) + ws αi,j(t),其中wr+ws=1。

从时隙0到时隙T−1的平均UE间速率-满意度效用函数最小值为速率-满意度效用函数最小值
问题
最大化从时隙0到时隙T−1的平均UE间速率-满意度效用函数最小值
变量:如果在时隙t,第j个波束小区中第i个UE接入第k个RB,那么xti,j,k=1。
约束:在单个时隙内,每个RB只能分配给一个UE

基于协作DRL的 LEO 卫星多用户信道分配

状态空间
在每个时隙 t,LEO 卫星的状态向量 s(t)
1.上 一个时隙的RB 分配决策
2.每个UE 在上 一个时隙所分配RB 上经历的干扰强度
3.每个UE 在上一个时隙的满意度
4.上一个时隙多个UE 试图接入相同RB 时发生碰撞的RB 的索引

动作空间
LEO 卫星在每个时隙 t 需要为波束小区内各UE 分配RB
如果在时隙t,第j个波束小区中第i个UE接入第k个RB,那么xti,j,k=1。
将网络实际输出连续变 量ˆ a(t) ∈ [0, 1] 进行离散化处理

奖励函数r(t)
UE 中速率-满意度效用最小值 min i∈Uj,j∈N ci,j(t)
UE 的当前RB 接入决策发生碰撞的惩罚项 Ci,j collision(t)
UE 满意度 不满足的惩罚项 Csatisfactory αi,j(t)
LEO 卫星DRL分层协作架构
LEO 卫星DRL分层协作架构
UE处的DRL决策模块采用:双延迟深度确定性策略梯度 (Twin Delayed Deep Deterministic Policy Gradient, TD3) 算法
LEO 卫星星间和星地协作关系
LEO 卫星星间和星地协作关系

协作DRL算法:LEO卫星端和地面UE端

协作DRL算法中LEO卫星端操作流程
协作DRL算法中LEO卫星端操作流程
协作DRL算法中地面UE端操作流程
协作DRL算法中地面UE端操作流程

仿真和基准算法

在这两种方案中,多波束LEO卫星在半径为500千米的圆形区域内,形成N=2个相同尺寸的波束小区,并在每个波束小区内,采用K=5个带宽为180kHz的RB,服务M=3个移动的UE。

基准算法
DDPG 算法
无协作TD3 算法

天基网络中的LEO地球固定小区设计:波束角度、RB分配、RB预配置子集

Y. Cao, S. -Y. Lien, Y. -C. Liang, D. Niyato and X. S. Shen, “Collaborative Deep Reinforcement Learning for Resource Optimization in Non-Terrestrial Networks,” 2023 IEEE 34th Annual International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC), Toronto, ON, Canada, 2023, pp. 1-7, doi: 10.1109/PIMRC56721.2023.10294047.

多时间尺度资源配置机制下的LEO卫星地球固定小区方案
多时间尺度资源配置机制下的LEO卫星地球固定小区方案
LEO 卫星与地面UE 均装 备UPA

UE 在第 n 个时隙中接入第 m 个RB 可实现的接收速率
cn,m(θtn, φtn, θrn, φrn) = B log2(1 + πn,m(θtn, φtn, θrn, φrn)).
问题
最小化UE从时隙0到时隙N−1利用的RB数目

  1. LEO发射波束角度
  2. UE接收波束角度
  3. RB分配方案:当在第n个时隙中,第m个RB被分配给UE时,bn,m=1
  4. RB预配置子集:MnLEO表示在时隙n从RB集合M中选取的预配置RB子集。

约束:每个时隙内的速率需求DnUE

基于多时间尺度DRL的协作资源优化算法

LEO 卫星:具有较长控制周期的高层智能体
UE:具有较短控制周期的低层智能体。
在所提出的多时间尺度MDP模型中,工作于不同时间尺度的LEO卫星与UE分别作为高层智能体和低层智能体

LEO 卫星侧MDP 模型

状态空间

  1. LEO 卫星 的位置信息
  2. 上一个控制周期内预配置RB 子集中的RB 在每个时隙的平均SNR

动作空间

  1. LEO发射波束角度
  2. RB预配置子集:MnLEO表示在时隙n从RB集合M中选取的预配置RB子集。

奖励函数
每个控制周期内满足 约束(5-11b)的时隙内UE 所获得的平均接收速率

UE 侧MDP 模型

状态空间

  1. 上一个时隙内当前RB 预配置子集 MkLEO 中每一个RB 的SNR
  2. 上一个时隙内接收天线上当前RB 预配置子集 MkLEO 中所有RB 可实现的平均接收信号强度

动作空间

  1. UE接收波束角度
  2. RB分配方案:当在第n个时隙中,第m个RB被分配给UE时,bn,m=1

奖励函数
单个RB 可实现的平均接收速率
UE 接收速率满意度惩罚项。约束(5-11b):每个时隙内的速率需求DnUE

多时间尺度多智能体DRL算法策略更新流程
多时间尺度多智能体DRL算法策略更新流程

多时间尺度多智能体DRL算法

采用TRPO 算法来更新低层智能体的策略
所提出的多时间尺度多智能体DRL算法本质上是一种同策略DRL算法,因此是一种在线学习算法。
多时间尺度多智能体DRL算法

仿真

采用具有 K = 100 个RB 的LEO 卫星为速 率需求动态变化的地面UE 提供服务。
其中,RB 带宽为 180 kHz,并且所有RB 共 被平均分为 5 组,在优化RB 分配方案时以RB 组为单位。

UE 的速率需求采用数据包设定,速率 需求在每个时隙的到达数目服从均值为 2 的泊松分布,单个速率需求的数据尺寸 为 5 兆比特,因此UE 在每个时隙的整体速率需求为速率需求数目与单位值的乘 积。

基准算法

基于DRL的融合优化算法

  1. 独立决策方案(记作Independent):UE和LEO卫星独立地制定各自的决策并不进行协同。
  2. UE独立估计方案(记作Single-estimation):UE仅估计自身的优势函数变化,并不考虑LEO卫星的优势函数变化。

传统的分阶段优化方法

  1. 计算LEO卫星与UE的波束角度
    1. 基于搜索的波束扫描方案(记作BFS)
    2. 基于地理位置信息的周期性波束角度补偿方案(记作PBU)
  2. RB选择方案
    1. 贪婪方案(记作Greedy)
    2. 给定RB接入数目的随机方案(记作Fixed)
    3. 基于UCB算法的多臂机方案(记作MAB)

波束扫描方案与RB 贪婪分配 方案的组合(记作 BFS-Greedy)可以实现最优性能。

天空融合网络中的多维资源优化:卫星的频谱分配、UAV轨迹、UAV和UE关联

多波束GEO卫星与UAV中继构成的多层NTN
多波束GEO卫星与UAV中继构成的多层NTN
单颗GEO卫星形成C个互不重叠的波束小区,为地面N个UE提供无线覆盖服务。
GEO卫星的频域资源共可分为K个等宽度且互不重叠的频谱块,时域则被划分为等长的时隙。
M个UAV中继
每个波束小区内的UE数目Nj

在时隙t内,GEO卫星到第j个UAV中继的传输速率

在时隙t内,第i个UE从第j个UAV中继获得的接收速率

切换代价Γi,j(t)

问题
变量:

  1. GEO卫星的频谱分配方案
    Wj,t表示在时隙t,GEO卫星为第j个UAV中继(波束小区)分配的频谱块数目
  2. UAV的部署轨迹
    paj(t)表示第j个UAV中继的三维坐标值
  3. UE的接入决策
    若uti,j=1,则表示在时隙t,第i个UE接入第j个UAV中继。

约束:

  1. 每个UE在每个时隙只允许接入1个UAV中继
  2. K个等宽度且互不重叠的频谱块

多层网络节点的 MDP 模型设计

一般化多层DRL决策架构
一般化多层DRL决策架构

  1. 观测信息处理模块
    与环 境互动获得本地决策经验
    与其他节点互动获得DRL 模型参数
  2. 孪生MDP 预测模块
    预测协作节点的动作选择或策略,并 通过隐式地向协作节点传递改进后的动作选择或策略
  3. MDP 控制模块
    推导出资源 配置最优决策
    更新DRL 模型参数

UE 侧MDP 模型

状态空间
1.上一个时隙内接入 的UAV 中继索引
若uti,j=1,则表示在时隙t,第i个UE接入第j个UAV中继。
2.上一个时隙内UAV 中继到UE 的RSS
3.上一个时隙内接入各UAV 中继的UE 数目Nj,t−1= ∑ i∈U ut−1 i,j ,∀j ∈ M

动作空间
{uti,j, ∀j ∈ M}
若uti,j=1,则表示在时隙t,第i个UE接入第j个UAV中继。

奖励函数
每个UE 希望最大化其传输速率并降低 切换次数
奖励

UAV 中继侧MDP 模型

状态空间
1.上一个控制周期的部署位置,即 pja(ta − 1);
2.上一个控制周期内每个UAV 中继的平均接入UE 数目

动作空间
Δx 和 Δy 表示UAV 中继在水平面的部署位置调整量

奖励函数
控制周期内接入UE 的传输速率

GEO 卫星侧MDP 模型

状态空间
上一个控制周期内每个UAV 中继 的平均接入UE 数目

动作空间
GEO卫星的频谱分配方案{Wj,t, ∀j ∈ M}
Wj,t表示在时隙t,GEO卫星为第j个UAV中继(波束小区)分配的频谱块数目

奖励函数
所有用户的总体传输速率

场景适配的多层DRL决策算法设计

多层DRL决策算法结构图
多层DRL决策算法结构图
图6-3中各层网络节点的观测信息是指:公式(6-7)中定义的UE状态向量,公式(6-10)中定义的UAV中继状态向量和(6-13)中定义的GEO卫星状态向量。

联合式多层算法

部分卫星和UAV 由于计算能力受限,因此无法独立承 担DRL 模型的计算,需要把与DRL 模型相关的决策和训练任务卸载到地基网络具 有强大计算能力的集中式控制中心处。
优点:能够基于全局观测量提供最优 的性能
缺点:可扩展性较差。
该算法只适用于联合决策空间维度较小的部 署场景。

独立式多层算法

每个节点独立地利用各自的DRL 决策模型在其控制周期内完 成决策任务。
优点:对各节 点造成的计算开销和信令开销极低
一般适用于优化问题维度极大且节点无法进 行协作的部署场景。

层次式多层算法

填补了联合式算法和独立式算法的中间区域

工作在长控制周期的高层网络节点需要预测工作在短控制周期的低层节点(如地面节点)在之后的控制周期内可能做出的决策。
领导者-追随者博弈
高层网络节点需要预测低层网络节点在给定高层策略情况下将做出的最优决策,然后再去制定自己的长期资源决策,并迫使低层网络节点在观察到高层网络节点的决策后执行其预测的决策。

主要适用于工作在长控制周期的高层网络节点(例如天基网络和空基网络节点)具有较强的计算能力的部署场景。

联邦式多层算法

在一般化多层DRL 决策架构中,控制周期较长的节点 出于与环境互动频率的限制,能够收集的决策经验较为有限,因此无法采用较大 的批尺寸采样训练数据。

多层DRL决策算法流程图

多层DRL决策算法流程图
多层DRL决策算法流程图

在多层NTN中资源优化开始时,各节点先对本地资源决策任务的决策空间维度进行估计,并将估计结果上报给联合MDP控制器。
联合MDP控制器将收到的决策空间维度整合,计算相应的计算复杂度并与本地的计算能力进行对比。
如果联合MDP控制器可以负担联合计算开销,则启用联合MDP控制器实现联合式算法
否则的话,多层NTN资源优化问题将被拆分到各层网络节点,此时各层网络节点根据本地的资源决策任务建立相应的MDP模型。
特别地,当高层网络节点(例如,GEO卫星或空基网络层中的HAP)具有充足的计算能力时,观测信息处理模块、MDP控制模块、特别是孪生MDP预测模块被同时启用来实现层次式算法,并推动空基网络节点和地基网络节点选择天基网络节点预测的“最优”决策。
否则,在各层网络节点计算能力不足时,仅采用观测信息处理模块和MDP控制模块实现独立式算法,但该算法没有收敛性保证,容易造成网络整体性能下降。
此外,在更新本地DRL模型参数之前,各层节点与DRL模型服务器间共享DRL模型参数的信令开销将被估计。
如果DRL模型参数传递过程中的信令开销可以被接受,DRL模型服务器将被激活来实现联邦式算法进而构建全局DRL模型,并能够实现适中的网络性能。

仿真

轨道高度为 35786 千米的GEO 卫星共形成 N = 25 个 面积相同的波束小区覆盖 20 千米乘 20 千米的正方形区域。
GEO 卫星具有 K = 30 个频谱块,其中每个频谱块的带宽为 180 kHz。

UAV 中继的部署高 度和移动速度分别为 5 千米和 10 米每时隙,并且传输功率为 30 dBm。

在仿真开始 时,UE 采用均匀分布,并且噪声功率谱密度为 −110 dBm/Hz。
UE 运动模型采用 高斯-马尔可夫移动模型(Gauss-Markov mobility model),其中平均移动速度和调 整参数分别设为 5 米每时隙和 0.8,并且每个UE 只允许在 6 个相邻的波束小区间移动。

GEO 卫星、UAV 中继和UE 的控制周期分别设为 150 个时隙, 30 个时隙和 1 个时隙。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1247376.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

每日一题:LeetCode-102.二叉树的层序遍历

每日一题系列&#xff08;day 03&#xff09; 前言&#xff1a; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f308; &#x1f50e…

使用Python对CSI相位进行矫正,并进行图像调整

一、前言 我记得我是最早将《MatLab对CSI的相位进行矫正》代码上传至网上的&#xff0c;后面陆续有人进行抄袭&#xff0c;不得已把一些细节和代码进行隐藏。今天整理之前Python代码的时候&#xff0c;发现一些不规范的问题&#xff0c;所以写了这篇博客。 二、使用Python对C…

大数据基础设施搭建 - Hive

文章目录 一、上传压缩包二、解压压缩包三、配置环境变量四、初始化元数据库4.1 配置MySQL地址4.2 拷贝MySQL驱动4.3 初始化元数据库4.3.1 创建数据库4.3.2 初始化元数据库 五、启动元数据服务metastore5.1 修改配置文件5.2 启动/关闭metastore服务 六、启动hiveserver2服务6.1…

手动实现 git 的 git diff 功能

这是 git diff 后的效果&#xff0c;感觉挺简单的&#xff0c;不就是 比较新旧版本&#xff0c;新增了就用 "" 显示新加一行&#xff0c;删除了就用 "-" 显示删除一行&#xff0c;修改了一行就用 "-"、"" 显示将旧版本中的该行干掉了并…

C#FlaUI.UIA实现发送微信消息原理

一 准备 .NetFramework 4.8 FlaUI.UIA3 4.0.0 FlaUInspect V1.3.0 1下载FlaUInspect https://github.com/FlaUI/FlaUInspect FlaUInspect V1.3.0 百度网盘下载 2 NuGet 引用 flaUI.UIA3 4.0.0 二代码部分 1 引用FlaUI using FlaUI.Core; using FlaUI.Core.Automatio…

深度学习基于Python+TensorFlow+Django的水果识别系统

欢迎大家点赞、收藏、关注、评论啦 &#xff0c;由于篇幅有限&#xff0c;只展示了部分核心代码。 文章目录 一项目简介简介技术组合系统功能使用流程 二、功能三、系统四. 总结 一项目简介 # 深度学习基于PythonTensorFlowDjango的水果识别系统介绍 简介 该水果识别系统基于…

比较2个点的3种结构在不规则平面上的占比

2 2 2 1 2 2 2 2 2 1 2 2 2 2 2 1 2 2 3 3 3 x 3 3 2 2 2 1 2 2 2 2 2 1 2 2 在平面上有一个点x&#xff0c;再增加一个点,11的操作把平面分成了3部分2a1&#xff0c;2a2&#xff0c;2a3&#xff0c;3部分的比值是 2a1 2a2 2a3 5 25 …

单词接龙00

题目链接 单词接龙 题目描述 注意点 1 < beginWord.length < 10endWord.length beginWord.lengthwordList[i].length beginWord.lengthbeginWord、endWord 和 wordList[i] 由小写英文字母组成wordList 中的所有字符串 互不相同 解答思路 从beginWord开始&#xff…

最新版灵沐V3.3微信资源类小程序源码支持流量主

源码简介 最新版灵沐V3.3微信资源类小程序源码支持流量主&#xff0c;一套不错的流量主变现资源下载小程序&#xff0c;它支持在微信、QQ和抖音平台上运行。这次更新主要集中在全局UI设计的升级&#xff0c;并依然注重资源下载和激励视频变现的功能。另外&#xff0c;还新增了…

智慧楼宇可视化视频综合管理系统,助力楼宇高效安全运行

随着互联网技术的进步和发展&#xff0c;智能化的楼宇建设也逐步成为人们选择办公场所是否方便的一个重要衡量因素。在智能化楼宇中&#xff0c;安全管理也是重要的一个模块。得益于互联网新兴技术的进步&#xff0c;安防视频监控技术也得到了快速发展并应用在楼宇的安全管理中…

羊大师:强健身体是成功的关键

健康是一项无价的财富&#xff0c;拥有强健的身体是实现人生目标的关键。而如何保持健康并拥有一个强健的身体呢&#xff1f;下面就为大家分享一些有效的健身方法和建议&#xff0c;帮助您达到健美身材的目标。 良好的饮食习惯是形成强健身体的基石。我们要摄入足够的营养物质…

uniapp开发的微信小程序进行代码质量控制,分包+压缩js+组件按需注入等

小程序代码分包的操作请看另外一篇文章&#xff1a;uniapp分包优化&#xff0c;包括分包路由跳转规则-CSDN博客 JS文件压缩&#xff1a;在工具「详情」-「本地设置」中开启「上传代码时自动压缩脚本文件」的设置 代码包&#xff1a;组件 > 启用组件按需注入解决办法 在小程…

如何选择ZK-friendly 哈希函数?

1. 引言 在What’s the deal with hash functions in Zero Knowledge?中&#xff0c;研究了哈希函数对ZKP场景的用途。当前有各种ZK-friendly 哈希函数设计&#xff0c;各有优缺点&#xff0c;且针对不同的性能维度进行了优化&#xff0c;如&#xff1a; MiMCGMiMCPoseidonP…

Instrumentation 是什么?和 ActivityThread 是什么关系?

Instrumentation 可以理解为应用进程管家&#xff0c;ActivityThread 要执行创建或暂停某个 Activity 的操作时&#xff0c;都需要通过 Instrumentation 来进行具体的操作&#xff0c;即回调 Activity 的生命周期。 每一个应用程序只有一个 Instrumentation 对象&#xff0c;每…

ubuntu挂载硬盘方法

1.关闭服务器加上新硬盘 2.启动服务器&#xff0c;以root用户登录 3.查看硬盘信息 fdisk -l4.格式化分区 找到需要分区的目录,并记录分区的uuid&#xff0c;用于后面修改/etc/fstab永久挂载配置文件 mkfs.ext4 /dev/nvme0n1 mkfs.ext4 /dev/nvme1n1 Filesystem UUID: a1c…

修改mysql的密码(每一步都图文解释哦)

当你想要连接本机数据库时&#xff0c;是不是有可能突然忘记了自己的数据库密码? 在此文中&#xff0c;我们来详细解决一下如何去修改自己的数据库密码&#xff0c;并使用Navicat来连接测试 1.停止mysql服务 打开终端&#xff0c;键入命令,将mysql服务先停止掉&#xff0c;…

【正点原子STM32连载】 第六十章 串口IAP实验(Julia分形)实验 摘自【正点原子】APM32F407最小系统板使用指南

1&#xff09;实验平台&#xff1a;正点原子APM32F407最小系统板 2&#xff09;平台购买地址&#xff1a;https://detail.tmall.com/item.htm?id609294757420 3&#xff09;全套实验源码手册视频下载地址&#xff1a; http://www.openedv.com/thread-340252-1-1.html## 第六十…

手把手用GPT开发小程序全流程!就是这么easy~

大家好&#xff0c;我是五竹。 前段时间用GPT开发了一款小程序:GPT真牛批&#xff01;三天开发一个小程序&#xff0c;三天积累了2000的用户&#xff0c;上周末抽空又接入了流量主&#xff0c;感兴趣的同学可以围观一下。 今天就来带大家走一遍用GPT开发一款小程序的全过程&a…

怎么禁止员工私自修改ip地址

在许多组织中&#xff0c;网络管理员负责配置和管理网络&#xff0c;包括为员工分配静态IP地址。然而&#xff0c;有些员工可能会试图修改这些分配的IP地址&#xff0c;这可能会导致一系列问题&#xff0c;包括网络性能下降、安全风险增加等。 因此&#xff0c;禁止员工私自修…

羊奶加西柚,羊大师教你减少自由基

羊奶加西柚&#xff0c;减少自由基的好处真的是多得数不胜数。无论是从营养角度&#xff0c;还是从健康角度考虑。羊奶富含蛋白质、维生素和矿物质&#xff0c;西柚富含维生素C和抗氧化剂。结合起来&#xff0c;它们可以提供许多健康益处&#xff0c;并为我们的身体抵御自由基的…