【论文阅读】Elucidating the Design Space of Diffusion-Based Generative Models

news2025/1/21 8:48:00

Elucidating the Design Space of Diffusion-Based Generative Models

引用: Karras T, Aittala M, Aila T, et al. Elucidating the design space of diffusion-based generative models[J]. Advances in Neural Information Processing Systems, 2022, 35: 26565-26577.

论文链接: (NIPS 2022)https://proceedings.neurips.cc/paper_files/paper/2022/hash/a98846e9d9cc01cfb87eb694d946ce6b-Abstract-Conference.html

代码链接: https://github.com/NVlabs/edm

简介

作者认为,基于扩散的生成模型的理论和实践目前过于复杂,并通过提出一个清晰分离具体设计选择的设计空间来解决这个问题。这使我们能够识别出采样过程和训练过程中的几项改进,以及对分数网络的预处理。我们的改进得到了新的最先进FID(1.79)在CIFAR-10的类条件设置中,以及在无条件设置中的1.97,采样速度比以前的设计快得多(每张图像35次网络评估),将一个预先训练的ImageNet-64模型的FID从2.07提高到接近最先进的1.55,并且在经过改进后重新训练达到了新的最先进水平1.36。

  1. 从实践的角度来研究这些模型背后的理论,更多地关注在训练和采样阶段出现的“有形”对象和算法,而不是可能从中得出它们的统计过程。目标是更好地了解这些组件是如何连接在一起的,以及在整个系统的设计中有哪些自由度。专注于一大类模型,其中神经网络用于模拟被高斯噪声破坏的训练数据的噪声水平相关边际分布的分数。因此,该工作是在去噪分数匹配的背景下进行的。

  2. 针对扩散模型合成图像的采样过程,确定了采样的最佳时间离散化,在采样过程中应用了高阶 Runge-Kutta 方法,评估了不同的采样器计划,并分析了随机性在采样过程中的有用性。改进后,合成过程中所需的采样步骤数量显著减少,改进后的采样器可以作为几种广泛使用的扩散模型的直接替代品。

  3. 侧重于评分建模神经网络的训练。虽然继续依赖常用的网络架构(DDPM [1],NCSN [2]),但在扩散模型设置中对网络的输入、输出和损失函数的预处理进行了第一个原则性分析,并得出了改进训练动态的最佳实践。在训练期间改善噪声水平的分布,并且通常与GAN一起使用的无泄漏增强[3]也有利于扩散模型。

Method

用标准差 σ d a t a σ_{data} σdata 表示 p d a t a ( x ) p_{data}(x) pdata(x) 的数据分布,并考虑通过添加如标准差为 σ σ σ的高斯噪声数据得到的软化分布 p ( x ; σ ) p(x; σ) px;σ。。对于 σ m a x ≫ σ d a t a σ_{max} ≫ σ_{data} σmaxσdata p ( x ; σ m a x ) p(x; σ_{max}) p(x;σmax)与纯高斯噪声几乎没有区别。扩散模型的思想是随机采样噪声图像 x 0 ∼ N ( 0 , σ m a x 2 I ) x_0 ∼ N(0, σ_{max}^2I) x0N(0σmax2I),并依次将其降噪为噪声水平 σ 0 = σ m a x > σ 1 > ⋅ ⋅ ⋅ > σ N = 0 σ_0 = σ_{max} > σ_1 > · · · > σ_N = 0 σ0=σmax>σ1>⋅⋅⋅>σN=0 的图像,因此在每个噪声水平下 x i ∼ p ( x i ; σ i ) x_i ∼ p(x_i; σ_i) xip(xi;σi)。因此,该过程的终点 x N x_N xN 根据数据进行分配。Song等[4]提出了一个随机微分方程(SDE),该方程在样本 x x x随时间变化时保持所需的分布 p p p。这允许使用随机求解器实现上述过程,该求解器在每次迭代时都会消除和添加噪声。它们还给出了相应的“概率流”常微分方程 (ODE),其中随机性的唯一来源是初始噪声图像 x 0 x_0 x0

概率流ODE在时间上分别向前或向后移动时不断增加或减少图像的噪声水平。要指定常微分方程,必须首先选择一个时间表 σ ( t ) σ(t) σ(t),该时间表定义了时间 t 所需的噪声水平。然而,时间表的选择具有重大的实际意义,不应基于理论上的方便而作出。
在这里插入图片描述

表 1 给出了在论文框架中重现三种早期方法的确定性变体的公式。之所以选择这些方法,是因为它们被广泛使用并实现了最先进的性能,但也因为它们来自不同的理论基础。一些公式看起来与原始论文有很大不同,因为间接和递归已被删除。这种重构的主要目的是揭示所有在以前的工作中经常纠缠在一起的独立组件。在框架中,组件之间没有隐含的依赖关系——原则上,对各个公式的任何选择(在合理范围内)都会导致一个有效的模型。换言之,更改一个组件并不需要在其他地方进行更改,例如,保持模型收敛到极限中数据的属性。在实践中,一些选择和组合当然会比其他选择和组合效果更好。

Improvements to deterministic sampling

论文假设,与采样过程相关的选择在很大程度上独立于其他组件,例如网络架构和训练细节。换句话说, D θ D_θ Dθ 的训练过程不应规定 σ ( t ) σ(t) σ(t) s ( t ) s(t) s(t) t i {t_i} ti,反之亦然;从采样器的角度来看, D θ D_θ Dθ只是一个黑匣子。通过在三个预训练模型上评估不同的采样器来测试这一点,每个模型代表不同的理论框架和模型系列。首先使用这些模型的原始采样器实现来测量这些模型的基线结果,然后使用表 1 中的公式将这些采样器引入统一框架,然后进行改进。这能够评估不同的实际选择,并提出适用于所有模型的抽样过程的一般改进。

论文评估了在32×32的无条件CIFAR-10上训练的“DDPM++ cont. (VP)”和“NCSN++ cont. (VE)”模型,对应于方差保持(VP)和方差爆炸(VE)公式,最初受到DDPM和SMLD的启发。还评估了在 64×64 的类条件 ImageNet 上训练的“ADM(dropout)”模型,对应于改进的 DDPM(iDDPM) 公式。该模型使用一组离散的 M = 1000 噪声水平进行训练。

根据 50,000 张生成图像和所有可用真实图像之间计算的 Fréchet 初始距离 (FID) 评估结果质量。图 2 显示了 FID 作为神经功能评估 (NFE) 的函数,即评估 D θ D_θ Dθ 的次数以产生单个图像。鉴于采样过程完全由 D θ D_θ Dθ 的成本主导,NFE 的改进直接转化为采样速度。原始的确定性采样器以蓝色显示,在统一框架(橙色)中重新实现这些方法会产生类似但始终更好的结果。这些差异的原因是原始实现中的某些疏忽,以及在DDIM的情况下对离散噪声水平的更仔细处理;注意,重新实现完全由算法 1 和表 1 指定,即使原始代码库的结构彼此非常不同。
在这里插入图片描述
在这里插入图片描述

Discretization and higher-order integrators以数值方式求解常微分方程必然是遵循真实解轨迹的近似值。在每个步骤中,求解器都会引入截断误差,该误差会在 N 个步骤的过程中累积。局部误差通常相对于步长呈超线性缩放,因此增加 N 可以提高解的精度。常用的欧拉方法是一阶常微分方程求解器,其相对于步长 h 具有 O ( h 2 ) O(h ^2) O(h2) 局部误差。 高阶 Runge-Kutta 方法的扩展性更有利,但每步需要对 D θ D_θ Dθ 进行多次评估。最近还提出了用于采样扩散模型的线性多步方法。通过广泛的测试,发现Heun的二阶方法(又名改进的欧拉,梯形规则)——之前由Jolicoeur-Martineau等人在扩散模型的背景下探索过——在截断误差和NFE之间提供了一个很好的权衡。如算法 1 所示,它为 t i + 1 t_{i+1} ti+1 引入了一个额外的校正步骤,以考虑 t i t_i ti t i + 1 t_{i+1} ti+1 之间 d x / d t dx/dt dx/dt 的变化。这种校正导致 O ( h 3 ) O(h ^3) O(h3) 局部误差,代价是每一步额外评估一次 D θ D_θ Dθ

在这里插入图片描述

时间步长 t i {t_i} ti 决定了步长和截断误差在不同噪声水平之间的分布方式,实验结论是步长应该随着σ的减小而单调减小,并且不需要根据每个样本而变化。采用参数化方案,其中时间步长根据噪声水平 σ i {σ_i} σi 的序列定义,例如 t i = σ − 1 ( σ i ) t_i = σ^{−1}(σ_i) ti=σ1(σi)。设置 σ i < N = ( A i + B ) ρ σ_{i<N} = (Ai + B)^ρ σi<N=(Ai+B)ρ 并选择常数 A 和 B,使 σ 0 = σ m a x σ_0 = σ_{max} σ0=σmax σ N − 1 = σ m i n σ_{N−1} = σ_{min} σN1=σmin,即
在这里插入图片描述
其中, ρ ρ ρ 控制 σ m i n σ_{min} σmin 附近的步长缩短了多少,而 σ m a x σ_{max} σmax 附近的步长却缩短了多少。分析表明,设置 ρ = 3 ρ = 3 ρ=3 几乎可以平衡每个步骤的截断误差,但 5 到 10 范围内的 ρ ρ ρ 在采样图像中表现更好。这表明 σ m i n σ_{min} σmin附近的误差有很大的影响。将本文的其余部分设置为 ρ = 7 ρ = 7 ρ=7

Trajectory curvature and noise schedule常微分方程解轨迹的形状由函数 σ ( t ) σ(t) σ(t) s ( t ) s(t) s(t) 定义。选择这些函数提供了一种减少上述截断误差的方法,因为它们的大小可以预期与 d x / d t dx/dt dx/dt 的曲率成正比。这些函数的最佳选择是 σ ( t ) = t σ(t) = t σ(t)=t s ( t ) = 1 s(t) = 1 s(t)=1,这也是 DDIM 中的选择。一个直接的结果是,在任何 x x x t t t 处,到 t = 0 t = 0 t=0 的单个欧拉步长会产生去噪图像 D θ ( x ; t ) D_θ(x;t) Dθ(x;t)。因此,解轨迹的正切始终指向降噪器输出。预计这只会随着噪声水平而缓慢变化,这在很大程度上对应于线性求解轨迹。图3c的一维常微分方程草图支持这种直觉;求解轨迹在大噪声和小噪声水平下都接近线性,并且仅在两者之间的一个小区域内具有较大的曲率。在图1b中的真实数据中也可以看到同样的效果,其中不同去噪器目标之间的变化发生在相对较窄的 σ σ σ范围内。对于建议的时间表,这对应于高ODE曲率被限制在相同的范围内。设置 σ ( t ) = t σ(t) = t σ(t)=t s ( t ) = 1 s(t) = 1 s(t)=1 的效果如图 2 中的红色曲线所示。由于 DDIM 已采用这些相同的选择,因此红色曲线与 ImageNet-64 的绿色曲线相同。然而,VP 和 VE 从原来的时间表中获益匪浅。

Stochastic sampling

确定性采样具有许多优点,例如,能够通过反转常微分方程将真实图像转换为相应的潜在表示。然而,与随机采样相比,它往往会导致更差的输出质量,随机采样在每个步骤中都会向图像注入新噪声。鉴于常微分方程和标准差别在理论上恢复相同的分布,那么随机性的作用究竟是什么?

Song等的SDE可以推广为方程1的概率流常微分方程和时变Langevin扩散SDE的总和:
在这里插入图片描述

其中 ω t ω_t ωt 是标准的 Wiener 过程。 d x + dx_+ dx+ d x − dx_− dx 现在是独立的 SDE,用于在时间上向前和向后移动,与 Anderson 的时间反转公式相关。Langevin 项可以进一步看作是确定性基于分数的去噪项和随机噪声注入项的组合,其净噪声水平贡献抵消。因此, β ( t ) β(t) βt有效地表示了现有噪声被新噪声取代的相对速率

这一观点揭示了为什么随机性在实践中是有帮助的:隐含的Langevin扩散在给定时间将样本推向所需的边缘分布,积极纠正早期采样步骤中的任何错误。另一方面,近似Langevin项。这一观点揭示了随机性在实践中有帮助的原因:隐含的Langevin扩散在给定时间将样本推向所需的边缘分布,积极纠正早期采样步骤中的任何错误。另一方面,用离散SDE求解器步骤近似Langevin项本身会引入误差。先前的结果表明非零β(t)是有帮助的,但据我们所知,Song等人中对β(t)的隐式选择没有特殊性质。因此,随机性的最佳量应该根据经验来确定

在这里插入图片描述

论文提出了一个随机采样器,它将二阶确定性 ODE 积分器与显式 Langevin 式的添加和去除噪声的“搅动”相结合。算法 2 中给出了一个伪代码,这不是一个通用的SDE求解器,而是为特定问题量身定制的采样程序。它的正确性源于两个子步骤的交替,每个子步骤都保持正确的分布(直到 ODE 步骤中的截断误差)。增加随机性可以有效地纠正早期采样步骤产生的误差,但它也有其自身的缺点。过度的 Langevin 样噪声添加和去除会导致所有数据集和降噪网络生成的图像中的细节逐渐丢失。在非常低和高的噪点水平下,颜色也会偏向过度饱和。我们怀疑实际降噪器在方程 3 中诱导出一个略微非保守的向量场,违反了 Langevin 扩散的前提并导致这些有害影响。值得注意的是,用分析降噪器进行的实验(如图1b)没有显示出这种降解。

如果退化是由 D θ ( x ; σ ) D_θ(x;σ) Dθ(x;σ) 中的缺陷引起的,则只能在采样期间使用启发式方法进行补救通过仅在特定范围内的噪声水平 t i ∈ [ S t m i n , S t m a x ] t_i ∈ [S_{tmin}, S_{tmax}] ti[StminStmax] 范围内启用随机性来解决向过度饱和的颜色漂移。对于这些噪声水平,定义 γ i = S c h u r n / N γ_i = S_{churn}/N γi=Schurn/N,其中 S c h u r n S_{churn} Schurn 控制随机性的总量。我们进一步钳制 γ i γ_i γi,使其永远不会引入比图像中已经存在的噪声更多的新噪声。最后发现,通过将 S n o i s e S_{noise} Snoise 设置为略高于 1 以夸大新添加噪声的标准偏差,可以部分抵消细节损失。这表明,假设的 D θ ( x ; σ ) D_θ(x;σ) Dθ(x;σ)非保守性的一个主要组成部分是去除略微过多的噪声的倾向——这很可能是由于向任何L2训练的降噪器都可以预期的均值回归

Preconditioning and training

训练神经网络直接对 D 进行建模远非理想——例如,由于输入 x = y + n x = y + n x=y+n 是干净信号 y y y 和噪声 n ∼ N ( 0 , σ 2 I ) n ∼ N(0, σ^2I) nN(0σ2I)的组合,其幅度因噪声水平 σ σ σ 而变化很大。出于这个原因,通常的做法是不直接将 $ 表示为神经网络,而是训练一个不同的网络 F θ F_θ Fθ,从中派生 D θ D_θ Dθ

以前的方法通过σ相关归一化因子来解决输入缩放问题,并尝试通过训练 F θ F_θ Fθ来预测 n n n缩放到单位方差,然后通过 D θ ( x ; σ ) = x − σ F θ ( ⋅ ) D_θ(x; σ) = x − σF_θ(·) Dθ(x;σ)=xσFθ()对输出进行预处理。这样做的缺点是,对大 σ σ σ,网络需要仔细微调其输出,以精确地抵消现有的噪声 n n n,并以正确的比例提供输出;但网络所犯的任何错误都会放大 σ σ σ 倍。在这种情况下,直接预测预期输出 D θ ( x ; σ ) D_θ(x; σ) Dθ(x;σ) 似乎要容易得多。本着与之前自适应混合信号和噪声的参数化相同的精神,建议使用与σ相关的跳跃连接来预处理神经网络,使其能够估计y或n,或介于两者之间。因此,用以下形式写出 D θ D_θ Dθ

其中 F θ F_θ Fθ 是要训练的神经网络, c s k i p ( σ ) c_{skip}(σ) cskip(σ) 调制跳跃连接, c i n ( σ ) c_{in}(σ) cin(σ) c o u t ( σ ) c_{out}(σ) cout(σ) 缩放输入和输出幅度, c n o i s e ( σ ) c_{noise}(σ) cnoise(σ) 将噪声水平 σ σ σ映射到 F θ F_θ Fθ 的调节输入中。可以等效地表示损失相对于原始网络输出 F θ F_θ Fθ
在这里插入图片描述

该形式揭示了 F θ F_θ Fθ的有效训练目标,使我们能够从第一性原理确定预处理函数的合适选择。通过要求网络输入和训练目标具有单位方差 ( c i n , c o u t ) (c_{in}, c_{out}) (cincout) 并尽可能少地放大 F θ F_θ Fθ 中的误差 ( c s k i p c_{skip} cskip) 来推导出表 1 所示的选择。 c n o i s e c_{noise} cnoise的公式是根据经验选择的。
在这里插入图片描述

表 2 显示了一系列训练设置的 FID,使用确定性采样器进行评估。从Song等人的基线训练设置开始,VP和VE之间差异很大;为每个(配置 A)提供单独的结果。为了获得更有意义的比较点,重新调整了基本超参数(配置 B)并通过删除最低分辨率层并将最高分辨率层的容量加倍来提高模型的表现力(配置 C)。然后,我们将 { c i n , c o u t , c n o i s e , c s k i p c_{in}, c_{out}, c_{noise}, c_{skip} cincoutcnoisecskip} 的原始选择替换为论文提出的预处理(配置 D),这将使结果基本保持不变——除了 VE 在 64×64 分辨率下显着改善。预处理的主要好处不是改善FID本身,而是使训练更加稳健,能够将注意力转向重新设计损失函数,而不会产生不利影响。

为了平衡有效损失权重,设置 λ ( σ ) = 1 / c o u t ( σ ) 2 λ(σ) = 1/c_{out}(σ)^2 λ(σ)=1/cout(σ)2,这也均衡了整个σ范围内的初始训练损失,如图 5a(绿色曲线)所示。最后,需要选择 p t r a i n ( σ ) p_{train}(σ) ptrain(σ),即在训练过程中如何选择噪声水平。检查训练后的每σ损耗(蓝色和橙色曲线)表明,只有在中等噪声水平下才有可能显着降低;在非常低的水平上,辨别出消失的小噪声分量既困难又无关紧要,而在高水平上,训练目标总是与接近数据集平均值的正确答案不同。因此,使用 p t r a i n ( σ ) p_{train}(σ) ptrain(σ) 的简单对数正态分布将训练工作定位到相关范围,如表 1 中详述,如图 5a(红色曲线)所示。

为了防止潜在的过拟合,这种过拟合经常困扰具有较小数据集的扩散模型,从GAN文献中借用了一个增强管道。该管道由各种几何变换组成,在添加噪点之前将其应用于训练图像。为了防止增强泄漏到生成的图像中,提供了增强参数作为 F θ F_θ Fθ 的调节输入;在推理过程中,将它们设置为零,以保证仅生成非增强图像。表 2 显示,数据增强提供了一致的改进(配置 F),为有条件和无条件 CIFAR-10 产生了 1.79 和 1.97 的最先进的新 FID,超过了之前的 1.85 和 2.10 的记录。

在这里插入图片描述

随机抽样的相关性似乎随着模型本身的改进而减弱,如图5b,c所示。当在CIFAR-10中使用论文的训练设置时(图5b),通过确定性抽样获得了最佳结果,任何数量的随机抽样都是有害的。

参考文献

[1] J. Ho, A. Jain, and P. Abbeel. Denoising diffusion probabilistic models. In Proc. NeurIPS, 2020.

[2] Y. Song and S. Ermon. Generative modeling by estimating gradients of the data distribution. In Proc. NeurIPS, 2019.

[3] T. Karras, M. Aittala, J. Hellsten, S. Laine, J. Lehtinen, and T. Aila. Training generative adversarial networks with limited data. In Proc. NeurIPS, 2020.

[4] Y. Song, J. Sohl-Dickstein, D. P. Kingma, A. Kumar, S. Ermon, and B. Poole. Score-based generative modeling through stochastic differential equations. In Proc. ICLR, 2021.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1495826.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

打破界限,释放创新:一键将HTML转化为PDF

在互联网时代&#xff0c;HTML作为网页的标准语言&#xff0c;承载着无数的信息与创意。然而&#xff0c;有时我们需要将这些在线内容转化为可打印、可分享的PDF格式。这时&#xff0c;一款高效、便捷的转换工具就显得尤为重要。 首先&#xff0c;我们要进入首助编辑高手主页面…

智能边缘计算网关实现工业自动化与数据处理的融合-天拓四方

随着物联网&#xff08;IoT&#xff09;技术的迅速发展和普及&#xff0c;越来越多的设备被连接到互联网上&#xff0c;产生了海量的数据。如何有效地处理和分析这些数据&#xff0c;同时确保数据的安全性和实时性&#xff0c;成为了摆在企业面前的一大挑战。智能边缘计算网关作…

文心一言 VS 讯飞星火 VS chatgpt (209)-- 算法导论15.4 6题

六、设计一个 O(nlgn) 时间的算法&#xff0c;求一个 n 个数的序列的最长单调递增子序列。&#xff08;提示&#xff1a;注意到&#xff0c;一个长度为 i 的候选子序列的尾元素至少不比一个长度为 i-1 候选子序列的尾元素小。因此&#xff0c;可以在输入序列中将候选子序列链接…

8、JavaWeb-案例-部门管理-员工管理

P135 案例-准备工作 依据案例&#xff0c;学习根据接口文档开发接口的能力。 完成部门管理和员工管理两部分。可以分析这两部分&#xff0c;一个部门可以有多个员工&#xff0c;一个员工归属一个部门。 准备数据库表&#xff0c;创建一个springboot工程&#xff0c;引入web开…

第五十一回 李逵打死殷天赐 柴进失陷高唐州-AI发展历程和常用框架

朱仝说只要杀了李逵就上梁山&#xff0c;柴进就劝李逵先在庄上住一段时间&#xff0c;先让朱仝、雷横和吴用回了梁山。 李逵在柴进庄上住了一个月&#xff0c;碰到柴进的叔叔柴皇城病重来信叫他去一趟&#xff0c;于是李逵就随着柴进去了高唐州。 柴皇城被殷天锡气死&#xf…

微服务day05-Gateway网关

Gateway网关 为了防止微服务能被任何身份的人访问&#xff0c;需要对访问微服务的人做身份认证和权限校验。网关的功能就是对访问用户进行身份认证和权限校验。网关具有3种功能&#xff1a; 身份验证和权限校验&#xff1a;网关作为微服务入口&#xff0c;需要校验用户是是否…

自学高效备考2024年AMC10:2000-2023年1250道AMC10真题解析

我们今天继续来随机看5道AMC10真题&#xff0c;以及详细解析&#xff0c;这些题目来自1250道完整的官方历年AMC10真题库。通过系统研究和吃透AMC10的历年真题&#xff0c;参加AMC10的竞赛就能拿到好名次。 即使不参加AMC10竞赛&#xff0c;初中和高中数学一定会学得比较轻松、…

Java线程状态解析:多线程编程指南

&#x1f31f; 欢迎来到 我的博客&#xff01; &#x1f308; &#x1f4a1; 探索未知, 分享知识 !&#x1f4ab; 本文目录 &#x1f31f;1. 引言&#x1f31f;2. Java线程的生命周期&#x1f4a1;2.1 <font color "skyblue">新建&#xff08;New&#xff09;&…

去除PDF论文行号的完美解决方案

去除PDF论文行号的完美解决方案 1. 遇到的问题 我想去除论文的行号&#xff0c;但是使用网上的Adobe Acrobat裁剪保存后 如何去掉pdf的行编号&#xff1f; - 知乎 (zhihu.com) 翻译时依然会出现行号&#xff0c;或者是转成word&#xff0c;这样就大大损失了格式&#xff0c…

Python之Web开发初学者教程—ubuntu下vi的使用

Python之Web开发初学者教程—ubuntu下vi的使用 vi\vim 文本编辑器 i 切换到输入模式&#xff0c;以输入字符。 x 删除当前光标所在处的字符。 : 切换到底线命令模式&#xff0c;以在最底一行输入命令。 vi 保存并退出&#xff1a;esc键退出编辑-…

人工智能在信息系统安全中的运用

一、 概述 对于企业和消费者来讲&#xff0c;人工智能是非常有用的工具&#xff0c;那又该如何使用人工智能技术来保护敏感信息?通过快速处理数据并预测分析&#xff0c;AI可以完成从自动化系统到保护信息的所有工作。尽管有些黑客利用技术手段来达到自己的目的&#xff0c;但…

JAVA语言类与对象的关系

在Java语言中&#xff0c;类与对象是面向对象编程的核心概念&#xff0c;它们之间存在着紧密的关系。以下是关于Java语言中类与对象的关系的要点&#xff1a; 1. 类&#xff08;Class&#xff09;&#xff1a; 类是Java程序的基本构造块&#xff0c;它是一种用户自定义的数据…

OpenHarmony教程指南—Navigation开发 页面切换场景范例

简介 在应用开发时&#xff0c;我们常常遇到&#xff0c;需要在应用内多页面跳转场景时中使用Navigation导航组件做统一的页面跳转管理&#xff0c;它提供了一系列属性方法来设置页面的标题栏、工具栏以及菜单栏的各种展示样式。除此之外还拥有动态加载&#xff0c;navPathSta…

【信息系统项目管理师】--【信息技术发展】--【新一代信息技术及应用】--【虚拟现实】

文章目录 第二章 信息技术发展2.2 新一代信息技术及应用2.2.6 虚拟现实1.技术基础2.关键技术3.应用和发展 第二章 信息技术发展 信息技术是在信息科学的基本原理和方法下&#xff0c;获取信息、处理信息、传输信息和使用信息的应用技术总称。从信息技术的发展过程来看&#xff…

Google Earth Engine(GEE)——CCNL:DMSP-OLS (1992-2013) 的校正的夜间灯光数据集(全球夜间灯光数据)

CCNL: Consistent And Corrected Nighttime Light Dataset from DMSP-OLS (1992-2013) 描述 一致和校正的夜间灯光 (CCNL) 数据集是国防气象计划 (DMSP) 操作线扫描系统 (OLS) 第 4版的重新处理版本。采用一系列方法减轻年际不一致性、饱和度和开花效应的影响&#xff0c;提高数…

js节点操作

js节点操作 一.DOM节点二.查找节点三.增加节点3.1.创建节点3.2.追加节点3.3.克隆节点 四. 删除节点 一.DOM节点 DOM树里每一个内容都称之为节点 节点类型&#xff1a;元素节点&#xff08;所有的标签 比如 body&#xff0c;div等&#xff0c;html 是根节点&#xff09; 属性节…

C++STL【list链表】

list 1. list介绍 list文档&#xff08;非官方&#xff09; 官方文档list是双向带头循环链表&#xff0c;它可以在常数范围内的任意位置进行插入和删除操作。list的迭代器是双向迭代器(bidirectional iterator)&#xff0c;它可以前后双向迭代。 由容器的底层结构决定&#xf…

redis 性能优化一

目录 前言 尾延迟 前言 说到redis 性能优化&#xff0c;优化的目的是什么&#xff1f;提高响应&#xff0c;减少延迟。就要关注两点&#xff0c;一是尾延迟&#xff0c;二是Redis 的基线性能。只有指标&#xff0c;我们的优化&#xff0c;才有意义&#xff0c;才能做监控以及…

数智驱动“坐商”变“行商”,安通控股迈向综合物流服务新高度

在全球经济增长放缓的大环境下&#xff0c;集装箱运输市场也面临供需双弱的新挑战。 国内内贸集装箱物流企业TOP3——安通控股股份有限公司&#xff08;以下简称“安通控股”&#xff09;激流勇进&#xff0c;积极推进营销理念从“业务操作型”向“客户营销型”转变、从传统的…

英福康INFICON软件真空Tware32中文操作手册

英福康INFICON软件真空Tware32中文操作手册