Joint communication and state sensing under logarithmic loss

news2025/4/24 13:40:36

摘要——我们研究一种基本的联合通信与感知设置,其中发射机希望向接收机传输一条消息,并同时通过广义反馈估计其信道状态。我们假设感知目标是获得状态的软估计(即概率分布),而非通常假设的点估计;并且我们使用对数损失失真作为保真度度量。聚焦于具有独立同分布(i.i.d.)状态的无记忆设置,我们描述了通信率与感知失真之间的最优权衡。在此过程中,我们阐明了所谓感知互信息效用函数的操作意义。

I. 引言

我们考虑一个双终端联合通信与感知(JCAS)设置,包含一个发射机和一个接收机。发射机希望通过状态依赖的离散无记忆信道(DMC) $P_{Y|X,S}$ 向接收机传输一条消息,其中 $X$ 是发射机发送的输入,$Y$是接收机观测到的输出,$S$是信道状态。同时,发射机希望通过广义反馈信道 $P_{Z|X,S}$ 估计信道状态,输出为 $Z$。显然,信道输入$X$ 在此扮演双重角色:编码消息以实现通信,探测信道以实现感知。自然地,这两个目标之间存在权衡,因为对第一个目的的最优输入通常对第二个目的并不是最优的。

Kobayashi等人[1]引入了上述基本模型并建立了可靠通信率(按Shannon定义)与状态估计保真度(用可分离失真度量表示)之间的权衡。这引发了一系列进一步的研究和扩展,包括多终端设置[2]-[4]、保密约束设置[5]、[6]和多天线高斯设置[7]等。所有这些工作都遵循相同的建模思路,允许状态以i.i.d.方式从一个信道使用变化到另一个(或更一般地,从一个区块到另一个,如[7]中)。另一种极端情况,即状态在整个传输过程中保持固定,已在[8]-[12]中考虑,假设状态取多个(通常是二进制)值。在当前工作中,我们专注于Kobayashi等人的原始设置,即具有i.i.d.状态。我们的目标是通过关注特定的保真度标准,进一步阐明通信与感知之间的权衡。

建立通信与感知之间基本权衡的一个挑战是选择感知保真度标准,即感知失真度量。一方面,人们理解失真的选择应该是应用特定的;但另一方面,不同的失真度量由不同的估计器最小化,并且常常导致不同的性能权衡。因此,建立一个"通用"的通信与感知权衡,超越特定失真度量选择的依赖,是很有意义的。

一种直观的通信与感知权衡,似乎不依赖于失真选择,可以用条件互信息术语描述为满足以下条件的所有非负元组(R, Γ):

R < I(X;Y|S) 和 \Gamma \leq I(S; Z|X) \quad (1)

对于某些可容许的输入$X$,其分布为$P_X$。在上式中,R是通信率,Γ是感知效用,通常被称为"感知率"或"感知互信息"[13]、[14]。将互信息用作感知效用函数相对较新,可以追溯到Bell关于雷达波形设计的工作[15](更近期的工作包括[16]-[18])。与通信率不同,感知率没有明确的操作意义。我们将稍后回到这个重要点,但在此之前,值得强调使上述特征化特别有趣的几个方面。

除了(1)中的特征化不依赖于特定的失真度量选择(至少在表面上看是如此)外,它还在$X$$S$的角色中展示了令人愉悦的对偶性。假设接收机知道信道状态S并希望恢复输入X,I(X;Y|S)捕获了观测Y中关于X给定S的信息量。对于发射机,X和S的角色相反,I(S;Z|X)捕获了Z中关于S给定X的信息量。此外,注意对于固定的$P_{Y|X,S}$$P_S$$I(X;Y|S)$在输入分布$P_X$上是凹的,而对于固定的$P_{Z|X,S}$$P_S$$I(S;Z|X)$$P_X$上是线性的。区域边界上的点可通过求解以下问题确定:

\max_{P_X} \lambda I(X;Y|S) + (1-\lambda)I(S;Z|X) \quad (2)

对于某个$\lambda \in [0, 1]$,这是控制权衡的权重。这是一个凸优化问题,可以高效求解,前提是输入字母表的大小是可管理的。

我们现在回到互信息的操作意义。对于通信,这已通过香农编码定理得到充分确立:我们知道存在可靠的编码方案¹,可实现高达互信息的所有速率,当在输入分布上最大化时,得到信道容量。而感知互信息,另一方面,经常被用作效用函数,但没有提供具体的操作解释。[13]中最近报告了一种可能的解释,将感知失真函数通过率-失真理论和数据处理不等式连接到感知互信息。然而,这种连接通常只在一些规范的特殊情况下才紧密成立。此外,这种连接隐含地要求使用率-失真编码来描述信道状态,这在大多数感知应用中可能是不必要的迂回,因为目标是直接估计状态。

在本文中,为了给(1)中的权衡提供具体解释,我们考虑Kobayashi等人[1]的基本设置,但采用不太常规的状态估计框架和失真度量。特别地,我们考虑获取状态的软估计,即概率分布(或信念),而非JCAS文献中更常见的点估计。软估计的保真度通过对数损失(log-loss)来衡量,这在预测和学习理论[19]-[21]以及数据压缩[22]-[24]中被广泛使用。我们描述了通信率与感知失真之间的基本权衡,并证明它可以通过互信息项和条件熵项来表示。这种权衡在某种意义上等同于(1)中的权衡。

II. 系统模型 

我们考虑一个状态依赖的DMC,输入为X,输出为Y和Z,状态为S。接收机通过$P_{Y|X,S}$观察Y,而发射机通过广义反馈获得Z,即通过P_{Z|X,S}。该信道使用n次,发射机希望通过传输输入序列$X^n \triangleq (X_1,\ldots,X_n)$向接收机发送消息,并同时通过广义反馈信号$Z^n \triangleq (Z_1,\ldots,Z_n)$估计状态序列$S^n \triangleq (S_1,\ldots,S_n)$

编码:发射机有一个消息W,从$[M_n] \triangleq {1,2,\ldots,M_n}$中均匀随机抽取。每比特信道的速率定义为:

R_n \triangleq \frac{1}{n}\log M_n \quad (3)

发射机希望将W发送给接收机,并同时通过广义反馈信道估计状态序列$S^n$。为此,发射机发送输入序列$X^n$,其中第$i$个符号$X_i$根据消息$W$和发射机在当时可获得的先前信道观测$Z^{i-1}$选择。因此,编码器是一系列函数$f^n \triangleq (f_1,f_2,\ldots,f_n)$,其中$f_i: [M_n] \times \mathcal{Z}^{i-1} \rightarrow \mathcal{X}$产生第$i$个输入符号$X_i = f_i(W, Z^{i-1})$

我们假设输入序列受到成本约束,通常代表实践中的功率约束。令$b: \mathcal{X} \rightarrow [0, \infty)$为成本函数,$B_n \in [0, \infty)$为每个输入符号的成本预算。则平均约束:

\frac{1}{n}\sum_{i=1}^n b(f_i(w, z^{i-1})) \leq B_n \quad (4)

必须对每个$w \in [M_n]$$z^n \in \mathcal{Z}^n$成立。

解码:接收$Y^n$并知道$S^n$后,接收机将消息解码为$\hat{W} = \varphi_n(Y^n, S^n)$,其中$\varphi_n: \mathcal{Y}^n \times \mathcal{S}^n \rightarrow [M_n]$是解码器。最大解码错误概率为:

\varepsilon_n \triangleq \max_{w\in[M_n]} \mathbb{P} [\varphi_n(Y^n, S^n) \neq W | W = w] \quad (5)

为方便起见,通常使用平均解码错误概率$\varepsilon_n^{\text{av}} \triangleq \mathbb{P} [\varphi_n(Y^n, S^n) \neq W]$。在操作上,控制最大错误概率更有意义,因为没有消息应该比其他消息有优先权。然而,就渐近可达率而言,通过排除[25]可以证明对最大错误的结果也适用于平均错误。

估计:接收$Z^n$并知道$W$后,发射机为状态序列$S^n$产生软估计。与硬估计(即点估计)不同,软估计是S^n上的概率分布(即pmf)。软估计器是一个函数$\psi_n: \mathcal{Z}^n \times [M_n] \rightarrow \mathcal{P}(S^n)$,其中$\mathcal{P}(S^n)$$S^n$上的概率单纯形。给定$Z^n = z^n$$W = w$,对$S^n$的软估计记为$\psi_n(z^n, w) = Q(\cdot|z^n, w)$,其中$Q(\cdot|z^n, w) \in \mathcal{P}(S^n)$。注意,如果$Q(\cdot|z^n, w)$有单点质量,则软估计简化为点估计。

软估计的保真度通过对数损失失真来衡量。状态序列$s^n$与软估计$\psi_n(z^n, w) = Q(\cdot|z^n, w)$之间的对数损失定义为:

\ell(s^n, \psi_n(z^n, w)) \triangleq \log\frac{1}{Q(s^n|z^n, w)} \quad (6)

对数损失,也称为自信息损失,可理解为给定软估计$Q(\cdot|z^n, w)$后关于$s^n$的剩余不确定性[22], [23]。例如,当且仅当$Q(\cdot|z^n, w)$$s^n$处有单点质量(即精确点估计)时,$\ell(s^n, \psi_n(z^n, w))$为零;当$s^n$$Q(\cdot|z^n, w)$下概率为零时,则为无穷大。

给定发送消息w,预期的对数损失失真为:

\Delta_n(w) \triangleq \frac{1}{n}\mathbb{E}[\ell(S^n, \psi_n(Z^n, W)) | W = w] \quad (7)

其中除以n是为了方便渐近分析。类似于最大解码错误概率,我们的失真度量定义为针对消息指标取最大值:

\Delta_n \triangleq \max_{w\in[M_n]}\frac{1}{n}\mathbb{E}[\ell(S^n, \psi_n(Z^n, W)) | W = w] \quad (8)

备注1. 也可以通过取消息的平均值来定义失真度量:

\Delta_n^{\text{av}} \triangleq \frac{1}{n}\mathbb{E}[\ell(S^n, \psi_n(Z^n, W))] \quad (9)

这在JCAS的大多数工作[1]-[7]中是常见做法,即各种失真度量通过取消息的平均值而非最大值来定义。我们认为这主要是出于技术便利,但从操作角度看不太合适。给定的感知性能应该无论通信什么消息都能保证,因此最大值似乎更合适。

率-失真区域:如果对于任何$\epsilon > 0$,存在一个编码$(f^n, \varphi_n, \psi_n)$,使得在足够大的$n$下,$R_n \geq R-\epsilon$$\Delta_n \leq \Delta+\epsilon$$B_n \leq B+\epsilon$$\varepsilon_n \leq \epsilon$,则编码器-解码器-估计器三元组$(f^n, \varphi_n, \psi_n)$被称为可达的。率-失真区域是所有可达$(R, \Delta)$元组的闭包。

III. 主要结果

定理1. (R, \Delta)是可达的当且仅当:

$R < I(X;Y|S)$
\Delta \geq H(S|Z,X) \quad (10)

对于某个输入随机变量X,其pmf $P_X$满足$\mathbb{E}[b(X)] \leq B$。上述区域中涉及的随机变量满足$(X,S,Y,Z) \sim P_X P_S P_{Y|X,S} P_{Z|X,S}$

我们将在下一节证明上述定理,但在此之前,先讨论(10)与(1)中率区域的等价性,并给出一个简单例子。

1) 感知率和等效率区域:我们将在下一节看到,最小化预期对数损失的最优软估计是状态序列的后验分布。在传输前,最小化预期对数损失的软估计是状态序列的先验分布,相应的预期对数损失是每符号$H(S)$。我们将率$\Gamma = H(S) - \Delta$定义为先验和后验预期对数损失之间的差值。使用这个定义,(10)中的率权衡转换为(1)中的率权衡。

2) 例子Y = SX \oplus N_Y and Z = SX \oplus N_Z \quad (11)

其中$S \sim \text{Bern}(\beta)$是状态,$N_Y \sim \text{Bern}(p)$$N_Z \sim \text{Bern}(q)$是噪声项,都是伯努利分布,相互独立且独立于X。注意,$\epsilon,p,q \in [0,1]$是相应的伯努利参数,$\oplus$表示模2和。可以证明,在这种情况下,率区域由所有非负值$(R,\Gamma)$给出,满足:

$R \leq \beta[h_b(\alpha * p) - h_b(p)]$
\Gamma \leq \alpha[h_b(\beta * q) - h_b(q)] \quad (12)

对于某个参数 $\alpha \in [0.5, 1]$,表示输入 $X$ 的伯努利参数,其中 $h_b(\cdot)$ 是二进制熵函数,$\alpha * p \triangleq \alpha(1-p) + (1-\alpha)p$。上述权衡生动地捕捉了 $X$$S$ 所扮演的双重角色。

IV. 定理1的证明

A. 对数损失下的状态感知

现在,我们暂时搁置通信部分,仅关注问题的感知部分。为此,固定一个消息 $W = w$和一个编码器$f^n$,并回顾输入序列完全由 $Z^{n-1}$$w$ 确定,即 $X^n = f^n(Z^{n-1}, w)$。给定$Z^n = z^n$通过广义反馈被观察到,令人惊讶的是,$S^n$ 的最小化预期对数损失的软估计是后验分布 $P_{S^n|Z^n,X^n}(\cdot|z^n, f^n(w, z^{n-1}))$,如下所示。

引理1. 给定$W = w$和固定编码器 $f^n$,预期对数损失的下界为:

n\Delta_n(w) = \mathbb{E} [\ell(S^n, \psi_n(Z^n,W)) | W = w]

\geq H(S^n|Z^n, X^n = f^n(w, Z^{n-1})) \quad (13)

当且仅当软估计 $Q(\cdot|z^n,w)$ 取为后验分布 $P_{S^n|Z^n,X^n}(\cdot|z^n, f^n(w, z^{n-1}))$ 时等式成立。

证明. 条件于 $W = w$$Z^n = z^n$,预期对数损失的下界为:

$\mathbb{E} [\ell(S^n, \psi_n(Z^n,W)) | Z^n = z^n, W = w]$

= \sum_{s^n \in \mathcal{S}^n} P(s^n|z^n, f^n(w, z^{n-1})) \log \frac{1}{Q(s^n|z^n, w)} \quad (14)

= H(S^n|Z^n, X^n = f^n(w, Z^{n-1})) + D(P||Q) \quad (15)

\geq H(S^n|Z^n, X^n = f^n(w, Z^{n-1})) \quad (16)

其中 P 用作后验分布 $P_{S^n|Z^n,X^n}$ 的简写符号。(16)中的不等式源于相对熵(Kullback-Leibler散度)的非负性,当且仅当 $P = Q$时等式成立。通过对给定 $W = w$$Z^n$ 取期望,可得(13)。□

类似引理1的结果先前已在源编码[22], [23]和预测[21, Ch. 3.6]的背景下出现。引理1是这些结果对本文感知设置的适应,如下所示,它在定理1的可达性和逆定理证明中都起着核心作用。

B. 逆定理

假设率-失真元组$(R, \Delta)$ 在成本预算 $B$ 下可达。为了证明逆定理,我们可以处理平均(而非最大消息)错误概率和对数损失失真,因为 $\varepsilon_n \leq \epsilon$$\Delta_n \leq \Delta+\epsilon$ 分别意味着 $\varepsilon_n^{\text{av}} \leq \epsilon$$\Delta_n^{\text{av}} \leq \Delta+\epsilon$

从Fano不等式开始,通过标准步骤(见[26, Ch. 3.1.5]),通信率的上界为:

n(R - \epsilon - \delta_n) \leq I(W; Y^n, S^n) \quad (17)

= \sum_{i=1}^n I(W; Y_i, S_i|Y^{i-1}, S^{i-1}) \quad (18)

\leq \sum_{i=1}^n I(W, Y^{i-1}, S^{i-1}; Y_i, S_i) \quad (19)

\leq \sum_{i=1}^n I(W, Z^{i-1}, Y^{i-1}, S^{i-1}; Y_i, S_i) \quad (20)

\leq \sum_{i=1}^n I(X_i, Y^{i-1}, S^{i-1}; Y_i, S_i) \quad (21)

= \sum_{i=1}^n I(X_i; Y_i|S_i) \quad (22)

其中$\delta_n \geq 0$可以通过增加$n$ 变得任意小。注意,(21)来自 $X_i = f_i(W, Z^{i-1})$ 和数据处理不等式。定义一个输入随机变量 $X \sim P_X$,其分布 $P_X$定义为:

$P_X(a) = \frac{1}{n} \sum_{i=1}^n P_{X_i}(a)$,对所有$a \in \mathcal{X}$\quad (23)

可以证明,上述定义的随机变量 X满足预期成本约束 $\mathbb{E}[b(X)] \leq B + \epsilon$(见附录)。利用互信息在输入分布上的凹性和Jensen不等式,我们得到:

R \leq I(X; Y|S) + \epsilon + \delta_n \quad (24)

现在转向对数损失。我们写道:

n(\Delta + \epsilon) \geq n\Delta_n^{\text{av}} \quad (25)

= \mathbb{E} [\ell(S^N, \psi_n(Z^n, W))] \quad (26)

\geq H(S^n|Z^n, X^n) \quad (27)

\geq H(S^n|Z^n, W) \quad (28)

其中(27)来自引理1并对 W取期望,而(28)成立是因为 $X^n = f^n(W, Z^{n-1})$。对于接下来的步骤,我们发现处理感知率 $\Gamma = H(S) - \Delta$更为方便。我们按如下方式进行:

n(\Gamma - \epsilon) \leq H(S^n) - H(S^n|Z^n, W) \quad (29)

= I(S^n; Z^n|W) \quad (30)

= \sum_{i=1}^n I(S^n; Z_i|Z^{i-1}, W) \quad (31)

= \sum_{i=1}^n I(S^n; Z_i|Z^{i-1}, W, X_i) \quad (32)

\leq \sum_{i=1}^n H(Z_i|X_i) - H(Z_i|X_i, Z^{i-1}, W, S^n) \quad (33)

= \sum_{i=1}^n I(S_i; Z_i|X_i) \quad (34)

(32)来自 $X_i = f_i(W, Z^{i-1})$,而(34)成立是因为 $(W, Z^{i-1}, S^{i-1}, S_{i+1}^n) \rightarrow (S_i, X_i) \rightarrow Z_i$形成马尔可夫链,因此$H(Z_i|X_i, Z^{i-1}, W, S^n) = H(Z_i|X_i, S_i)$

从(34)继续,我们写道:

\Gamma - \epsilon \leq \frac{1}{n} \sum_{i=1}^n I(S_i; Z_i|X_i) \quad (35)

= \sum_{a\in\mathcal{X}} \frac{1}{n}\sum_{i=1}^n P_{X_i}(a)I(S_i;Z_i|X_i=a)\quad (36)

= \sum_{a\in\mathcal{X}} P_X(a)I(S;Z|X=a) \quad (37)

= I(S;Z|X) \quad (38)

其中我们使用了(23)中定义的输入分布$P_X$

通过足够增大n,我们可以使(24)和(38)中的$\epsilon$$\delta_n$变得任意小。令$n \rightarrow \infty$$\epsilon,\delta_n \rightarrow 0$,由此可得$R \leq I(X;Y|S)$$\Gamma \leq I(S;Z|X)$(或等价地,$\Delta \geq H(S|Z,X)$),对于某些满足$\mathbb{E}[b(X)] \leq B$$P_X$成立,这就证明了逆定理。

C. 可达性

对于可达性部分,只需证明定理1中区域的边界曲线是可达的。该边界曲线由形如(R^*(∆,B),∆)的对组成,其中:

$R^*(\Delta, B) \triangleq \max_{P_X} I(X;Y|S),$

\text{s.t. } H(S|Z,X) = \Delta, \mathbb{E}[b(X)] = B. \quad (39)

考虑边界曲线上的任意一点$(R,\Delta)$,令$P_X$为满足$R = R^*(\Delta,B) = I(X;Y|S)$$H(S|Z,X) = \Delta$$\mathbb{E}[b(X)] = B$的输入分布。如我们将看到的,使用非反馈码和非自适应编码器就足够了。这并不奇怪,因为信道和状态序列都是无记忆的(参见[1]、[3])。

固定$n$$\epsilon > 0$。每个消息索引$w \in [M_n]$映射到一个码字$x^n(w) \in \mathcal{X}^n$,所有码字共同组成一个码本$C_n = {x^n(1), x^n(2), \ldots, x^n(M_n)}$。状态序列$S^n$的后验概率分布分解为:

P_{S^n|Z^n,X^n}(s^n|z^n, x^n(w)) = \prod_{i=1}^n P_{S|Z,X}(s_i|z_i, x_i(w)). \quad (40)

以(40)中的后验分布作为软估计可得:

$\Delta_n(w) = \frac{1}{n}H(S^n|Z^n, X^n = x^n(w))$

= \frac{1}{n}\sum_{i=1}^n H(S_i|Z_i, X_i = x_i(w)). \quad (41)

显然,对于每个$w \in [M_n]$,如果所有码本$C_n$中的码字都从集合$\mathcal{B}n$中选择,则保证实现$\Delta_n(w) \leq \Delta + \epsilon$的同时满足$\frac{1}{n}\sum{i=1}^n b(x_i(w)) \leq B + \epsilon$,其中:

\mathcal{B}n \triangleq {x^n \in \mathcal{X}^n: \frac{1}{n}\sum{i=1}^n b(x_i) \leq B + \epsilon, \frac{1}{n}\sum_{i=1}^n H(S|Z, X = x_i) \leq \Delta + \epsilon}. \quad (42)

接下来需要证明存在这样一个码本,其速率$\frac{1}{n}\log M_n \geq I(X;Y|S) - \epsilon$且错误概率$\varepsilon_n \leq \epsilon$

为此,我们引用一个被称为Feinstein引理的信道编码定理(见[27, 定理18.7])。在该引理的表述中,$X^n \sim P_{X^n}$是从多字母输入分布$P_{X^n}$中抽取的随机输入序列,该分布在集合$\mathcal{B}n$上有支撑,且$i(x^n;y^n|s^n) \triangleq \log \frac{P{Y^n|X^n,S^n}(y^n|x^n,s^n)}{P_{Y^n|S^n}(y^n|s^n)}$是条件于状态序列的信息密度。

引理2. 固定阈值参数$\gamma_n > 0$。存在一个码本$C_n \subseteq \mathcal{B}_n$,大小为$|C_n| = M_n$,且最大解码错误概率$\varepsilon_n$满足:

\varepsilon_n \leq \mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n] + \frac{M_n}{\gamma_n}. \quad (43)

接下来,我们通过适当选择多字母输入分布$P_{X^n}$和阈值参数$\gamma_n$来证明可实现期望的速率。特别地,我们设:

P_{X^n}(x^n) = \frac{P_X^n(x^n)}{P_X^n(\mathcal{B}_n)}\mathbf{1}[x^n \in \mathcal{B}_n] \quad (44)

其中$P_X^n(x^n) = \prod_{i=1}^n P_X(x_i)$是来自$P_X$(在可达性开始时定义)的$n$重乘积分布,且$P_X^n(\mathcal{B}n) \triangleq \sum{x^n \in \mathcal{B}_n} P_X^n(x^n)$。此外,我们设置$\gamma_n$使得$\frac{1}{n}\log \gamma_n = I(X;Y|S) - \epsilon/2$。有了这些选择,(43)中的项$\mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n]$随着n趋于无穷而趋于零,如下所示:

\mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n]

$= \sum_{x^n} P_{X^n}(x^n)\mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n | X^n = x^n]$

\leq \frac{1}{P_X^n(\mathcal{B}_n)}\mathbb{P}[\frac{1}{n}i(X^n;\tilde{Y}^n|S^n) < I(X;Y|S) - \frac{\epsilon}{2}] \quad (45)

其中$\tilde{X}^n \sim P_X^n$$\tilde{Y}^n$是相应的接收机输出。根据大数定律,$P_X^n(\mathcal{B}_n) \rightarrow 1$$\mathbb{P}[\frac{1}{n}i(\tilde{X}^n;\tilde{Y}^n|S^n) < I(X;Y|S) - \frac{\epsilon}{2}] \rightarrow 0$,随着$n \rightarrow \infty$

此外,通过选择$M_n$使得$\frac{1}{n}\log M_n = I(X;Y|S)-\epsilon$,(43)中的项$\frac{M_n}{\gamma_n}$也趋于零,因为$n$趋于无穷。因此,对于足够大的n,保证了$\varepsilon_n \leq \epsilon$,这就完成了证明。

备注2. 引理2是一个使用Feinstein最大编码和次优阈值解码证明的民间编码定理变体。一个类似但略微较弱的界限也适用于平均编码错误概率,且可以使用Shannon的随机编码与阈值解码来证明。这两种界限都适用于我们证明渐近结果的目的。我们建议读者参考[27, Ch. 18]获取关于这些界限的全面现代处理,它们有时被称为信息谱界限或单次界限³。此外,Feinstein引理的成本约束版本在[27, 定理20.7]中给出,服务于相同目的。

备注3. 定理1的可达性也可以使用更常见的联合典型性方法来证明。为此,使用鲁棒典型性(在El-Gamal和Kim[26]中广泛使用)并调用典型平均引理来处理(42)中的输入成本和感知约束可能最为方便。这基本上是[1]中采用的方法,但使用平均(而非最大)失真度量,相对于最大值略微容易处理。我们选择了通过Feinstein引理使用信息谱单次方法,它具有一些优势。首先,它直接扩展到具有连续字母表的信道(如高斯信道),无需离散化(这是扩展基于鲁棒典型性的证明所需的)。此外,上述可达性结果可通过正态近似(参见[27, 定理19.11])得到有限块长特征化。最后,尽管不是本文的重点,基于Feinstein引理的可达性适用于一般的信道,例如有记忆或非平稳或非遍历[28]的信道。

V. 高斯信道

到目前为止,我们一直考虑具有离散字母表的信道,但这些结果也适用于具有连续字母表的信道,前提是$S$具有有界微分熵的先验和后验概率密度(即$h(S|Z,X) > -\infty$)。高斯信道满足此要求,其输出为:

Y = SX + N_Y and Z = SX + N_Z \quad (46)

其中$S \sim \mathcal{N}(0,1)$表示状态,$N_Y \sim \mathcal{N}(0,1)$$N_Z \sim \mathcal{N}(0,1)$是噪声项,都相互独立且独立于$X$。输入受到平均功率(即平方成本)约束,预算为$P$

根据定理1,可以证明,率-失真权衡由所有满足以下条件的对$(R,\Delta)$给出:

$R \leq I(X;Y|S)$\Delta \geq \frac{1}{2}\mathbb{E}\left[\log\left(\frac{2\pi e}{1+|X|^2}\right)\right] \quad (47)

对于某些满足$\mathbb{E}[|X|^2] \leq P$$X$。注意,在这种情况下,失真(即预期对数损失)可以是负的。等价地,率区域由所有满足以下条件的对$(R,\Gamma)$给出:

R \leq I(X;Y|S) and \Gamma \leq \frac{1}{2}\mathbb{E}[\log(1+|X|^2)] \quad (48)

为了比较,我们呈现[1]中在平方损失失真度量下的结果。在这种情况下,率-失真区域由所有满足以下条件的对$(R,D)$组成:

$R \leq I(X;Y|S)$D \geq \mathbb{E}\left[\frac{1}{1+|X|^2}\right] \quad (49)

根据Jensen不等式,对数损失和平方损失失真都由满足|X|^2 = P的输入最小化。因此,在最小失真下,二进制相移键控(BPSK)在两种情况下都实现最佳速率。

然而一般来说,(47)和(49)中的权衡并不必然等价。为了理解这一点,令:

\text{mmse}(x) \triangleq \mathbb{E}[(S - \mathbb{E}[S|Z, X = x])^2] = \frac{1}{1+|x|^2} \quad (50)

为给定$X = x$条件下从$Z$估计$S$的最小均方误差(MMSE)。在速率约束$R$下,通过解决以下问题来最小化平方损失失真:

\min_{X:\mathbb{E}[|X|^2]\leq P} \mathbb{E}[\text{mmse}(X)],满足 I(X;Y|S) \geq R. \quad (51)

在对数损失失真下的相应问题是

$\min_{X:\mathbb{E}[|X|^2]\leq P} e^{\mathbb{E}[\log(mmse(X))]} \quad \text{s.t.} \quad I(X;Y|S) \geq R \quad (52)$

其中对目标函数进行指数化处理并忽略常数不会改变问题。注意,(51) 是 MMSE 的算术平均值的最小化问题,作为输入 X的函数,而 (52) 是其几何平均值的最小化问题。这两种情况可能导致不同的最优输入分布。研究这两种情况下最优输入分布的结构是未来工作的内容。

VI. 讨论

通过将 [1] 中的一般速率-失真权衡专门化为对数损失失真,可以得到类似定理 1 的结果 [1,定理 1]。然而,严格来说,这种专门化并不严谨,因为 [1] 中的证明适用于离散重构字母表和可分离失真度量(即单字母失真的归一化和)。软估计不是离散的(即使状态字母表是),且第 II 节中定义的对数损失不是可分离的。后一个问题可以通过将软估计的集合限制为乘积分布来规避,这在我们特定情况下由于独立同分布状态而不是一个主要限制。尽管如此,我们在此提出的问题表述和我们采用的证明技术更为通用,为处理具有记忆的信道铺平了道路。

对状态感知互信息的另一种有效解释是通过列表解码 [29]。然而,这种解释适用于具有离散字母表的信道,对于具有连续字母表的信道似乎不成立。此外,如 [23] 在源编码背景下所示,软估计下的对数损失与一般的LIST大小不完全等价,但在离散字母表下两者在某种程度上是等价的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2341516.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Linux:41线程控制lesson29

1.线程的优点&#xff1a; • 创建⼀个新线程的代价要⽐创建⼀个新进程⼩得多 创建好线程只要调度就好了 • 与进程之间的切换相⽐&#xff0c;线程之间的切换需要操作系统做的⼯作要少很多 为什么&#xff1f; ◦ 最主要的区别是线程的切换虚拟内存空间依然是相同的&#x…

HTMLCSS实现网页轮播图

网页中轮播图区域的实现与解析 在现代网页设计中&#xff0c;轮播图是一种常见且实用的元素&#xff0c;能够在有限的空间内展示多个内容&#xff0c;吸引用户的注意力。下面将对上述代码中轮播图区域的实现方式进行详细介绍。 一、HTML 结构 <div class"carousel-c…

Java基础第21天-正则表达式

正则表达式是对字符串执行模式匹配的技术 如果想灵活的运用正则表达式&#xff0c;必须了解其中各种元字符的功能&#xff0c;元字符从功能上大致分为&#xff1a; 限定符选择匹配符分组组合和反向引用符特殊字符字符匹配符定位符 转义号\\:在我们使用正则表达式去检索某些特…

CSGO 盲盒开箱系统技术实现深度解析

一、系统架构设计 &#xff08;一&#xff09;前后端分离架构 采用前后端分离模式&#xff0c;后端专注业务逻辑处理与数据管理&#xff0c;前端负责用户交互界面呈现。后端通过 RESTful API 与前端进行数据交互&#xff0c;这种架构能有效提高开发效率&#xff0c;便于团队分…

JS通过GetCapabilities获取wms服务元数据信息并在SuperMap iClient3D for WebGL进行叠加显示

获取wms服务元数据信息并在三维webgl客户端进行叠加显示 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0"><tit…

7N60-ASEMI无人机专用功率器件7N60

编辑&#xff1a;LL 7N60-ASEMI无人机专用功率器件7N60 型号&#xff1a;7N60 品牌&#xff1a;ASEMI 封装&#xff1a;TO-220F 最大漏源电流&#xff1a;7A 漏源击穿电压&#xff1a;600V 批号&#xff1a;最新 RDS&#xff08;ON&#xff09;Max&#xff1a;1.20Ω …

Pytorch图像数据转为Tensor张量

PyTorch的所有模型&#xff08;nn.Module&#xff09;都只接受Tensor格式的输入&#xff0c;所以我们在使用图像数据集时&#xff0c;必须将图像转换为Tensor格式。PyTorch提供了torchvision.transforms模块来处理图像数据集。torchvision.transforms模块提供了一些常用的图像预…

Java 加密与解密:从算法到应用的全面解析

Java 加密与解密&#xff1a;从算法到应用的全面解析 一、加密与解密技术概述 在当今数字化时代&#xff0c;数据安全至关重要。Java 加密与解密技术作为保障数据安全的关键手段&#xff0c;被广泛应用于各个领域。 加密是将明文数据通过特定算法转换为密文&#xff0c;使得…

Java基础系列-HashMap源码解析2-AVL树

文章目录 AVL树左旋右旋左旋右旋的4种情况LL 型RR 型LR 型RL 型 实际插入时怎么判断是那种类型&#xff1f;插入时注意事项删除节点 AVL树 为避免BST树退化成链表的极端情况&#xff0c; AVL 树应运而生。 平衡因子取值&#xff08;-1&#xff0c;0&#xff0c;1&#xff09;…

MySQL的日志--Redo Log【学习笔记】

MySQL的日志--Redo Log 知识来源&#xff1a; 《MySQL是怎样运行的》--- 小孩子4919 MySQL的事务四大特性之一就是持久性&#xff08;Durability&#xff09;。但是底层是如何实现的呢&#xff1f;这就需要我们的Redo Log&#xff08;重做日志&#xff09;闪亮登场了。它记录着…

【AI应用】免费代码仓构建定制版本的ComfyUI应用镜像

免费代码仓构建定制版本的ComfyUI应用镜像 1 创建代码仓1.1 注册登陆1.2 创建代码仓1.5 安装中文语言包1.4 拉取ComfyUI官方代码2 配置参数和预装插件2.1 保留插件和模型的版本控制2.2 克隆插件到代码仓2.2.1 下载插件2.2.2 把插件设置本仓库的子模块管理3 定制Docker镜像3.1 创…

​​Agentic AI——当AI学会主动思考与决策,世界将如何被重塑?

一、引言&#xff1a;2025&#xff0c;Agentic AI的元年 “如果ChatGPT是AI的‘聊天时代’&#xff0c;那么2025年将开启AI的‘行动时代’。”——Global X Insights[1] 随着Agentic AI&#xff08;自主决策型人工智能&#xff09;的崛起&#xff0c;AI系统正从被动应答的“工具…

Ollama API 应用指南

1. 基础信息 默认地址: http://localhost:11434/api数据格式: application/json支持方法: POST&#xff08;主要&#xff09;、GET&#xff08;部分接口&#xff09; 2. 模型管理 API (1) 列出本地模型 端点: GET /api/tags功能: 获取已下载的模型列表。示例:curl http://lo…

PNG透明免抠设计素材大全26000+

在当今的数字设计领域&#xff0c;寻找高质量且易于使用的素材是每个设计师的日常需求。今天&#xff0c;我们将为大家介绍一个超全面的PNG透明免抠设计素材大全&#xff0c;涵盖多种风格、主题和应用场景&#xff0c;无论是平面设计、网页设计还是多媒体制作&#xff0c;都能轻…

4.多表查询

SQL 多表查询&#xff1a;数据整合与分析的强大工具 文章目录 SQL 多表查询&#xff1a;数据整合与分析的强大工具一、 多表查询概述1.1 为什么需要多表查询1.2 多表查询的基本原理 二、 多表查询关系2.1 一对一关系&#xff08;One-to-One&#xff09;示例&#xff1a; 2.2 一…

美团2024年春招第一场笔试 C++

目录 1&#xff0c;小美的平衡矩阵 2&#xff0c;小美的数组询问 3&#xff0c;小美的MT 4&#xff0c;小美的朋友关系 1&#xff0c;小美的平衡矩阵 【题目描述】 给定一个n*n的矩阵&#xff0c;该矩阵只包含数字0和1。对于 每个i(1<i<n)&#xff0c;求在该矩阵中&am…

XHTMLConverter把docx转换html报java.lang.NullPointerException异常

一.报错 1.报错信息 org.apache.poi.xwpf.converter.core.XWPFConverterException: java.lang.NullPointerExceptionat org.apache.poi.xwpf.converter.xhtml.XHTMLConverter.convert(XHTMLConverter.java:77)at org.apache.poi.xwpf.converter.xhtml.XHTMLConverter.doConve…

OpenCV 图形API(52)颜色空间转换-----将 NV12 格式的图像数据转换为 RGB 格式的图像

操作系统&#xff1a;ubuntu22.04 OpenCV版本&#xff1a;OpenCV4.9 IDE:Visual Studio Code 编程语言&#xff1a;C11 算法描述 将图像从 NV12 (YUV420p) 色彩空间转换为 RGB。该函数将输入图像从 NV12 色彩空间转换到 RGB。Y、U 和 V 通道值的常规范围是 0 到 255。 输出图…

COdeTop-206-反转链表

题目 206. 反转链表 给你单链表的头节点 head &#xff0c;请你反转链表&#xff0c;并返回反转后的链表。 示例 1&#xff1a; 输入&#xff1a;head [1,2,3,4,5] 输出&#xff1a;[5,4,3,2,1]示例 2&#xff1a; 输入&#xff1a;head [1,2] 输出&#xff1a;[2,1]示例 …

线段树讲解(小进阶)

目录 前言 一、线段树知识回顾 线段树区间加减 区间修改维护&#xff1a; 区间修改的操作&#xff1a; 区间修改update&#xff1a; 线段树的区间查询 区间查询&#xff1a; 区间查询的操作&#xff1a; 递归查询过程&#xff1a; 区间查询query&#xff1a; 代码&…