图像复原中的最小二乘估计
假设我们有一个原始图像 f \bm{f} f,它经过了一个线性退化过程(例如,卷积与加性噪声),产生了观测到的退化图像 g \bm{g} g:
g = H f + n \bm{g} = \bm{H}\bm{f} + \bm{n} g=Hf+n
这里:
- g \bm{g} g是退化后的观测图像。
- H \bm{H} H是一个表示退化过程的线性算子(例如,点扩散函数 PSF 的离散化版本,它可以是模糊矩阵)。
- n \bm{n} n表示加性噪声。
- f \bm{f} f是我们想要恢复的原始图像。
最小二乘估计是寻找一个估计 f ^ \hat{\bm{f}} f^,使得预测图像 H f ^ \bm{H}\hat{\bm{f}} Hf^与观测图像 g \bm{g} g之间的差异最小化。这可以通过最小化残差平方和(RSS)来实现:
min f ^ ∥ g − H f ^ ∥ 2 2 \min_{\hat{\bm{f}}} \|\bm{g} - \bm{H}\hat{\bm{f}}\|_2^2 f^min∥g−Hf^∥22
这里的 ∥ ⋅ ∥ 2 2 \|\cdot\|_2^2 ∥⋅∥22表示欧几里得范数的平方,即残差向量的元素平方和。
最小二乘解
如果我们忽略噪声项 n \bm{n} n,或者假设噪声的影响较小,那么可以通过求解正规方程得到 f ^ \hat{\bm{f}} f^的解析解:
f ^ = ( H T H ) − 1 H T g \hat{\bm{f}} = (\bm{H}^T\bm{H})^{-1}\bm{H}^T\bm{g} f^=(HTH)−1HTg
然而,在实际应用中,直接求解上述公式可能会遇到以下问题:
- 病态问题:如果 H \bm{H} H接近奇异(例如,当图像严重模糊时), H T H \bm{H}^T\bm{H} HTH可能很难逆,导致数值不稳定。
- 噪声放大:即使是很小的噪声 n \bm{n} n,也可能被逆过程显著放大,从而破坏复原效果。
正则化最小二乘估计
为了解决这些问题,通常会采用正则化最小二乘估计(Regularized Least Squares, RLS)。正则化方法通过添加一个惩罚项到目标函数中,以限制解的空间并防止过拟合。常见的正则化形式包括:
-
Tikhonov 正则化(也称为岭回归):
min f ^ ∥ g − H f ^ ∥ 2 2 + λ ∥ f ^ ∥ 2 2 \min_{\hat{\bm{f}}} \|\bm{g} - \bm{H}\hat{\bm{f}}\|_2^2 + \lambda \|\hat{\bm{f}}\|_2^2 f^min∥g−Hf^∥22+λ∥f^∥22
其中 λ \lambda λ是正则化参数,控制了对噪声和解的平滑度之间的权衡。 -
总变差正则化(Total Variation, TV):
min f ^ ∥ g − H f ^ ∥ 2 2 + λ ∥ ∇ f ^ ∥ 1 \min_{\hat{\bm{f}}} \|\bm{g} - \bm{H}\hat{\bm{f}}\|_2^2 + \lambda \|\nabla\hat{\bm{f}}\|_1 f^min∥g−Hf^∥22+λ∥∇f^∥1
这种方法有助于保持图像边缘的清晰度,因为它惩罚的是图像梯度的绝对值之和,而不是像素值本身。
迭代算法
对于大型图像,直接求解上述优化问题可能是计算上不可行的,因此常常使用迭代算法,如共轭梯度法(Conjugate Gradient)、交替方向乘子法(ADMM)或基于梯度的方法(如梯度下降),这些方法可以在每一步迭代中逐步逼近最优解,同时保持计算效率。