Adversarial Machine Learning(对抗机器学习)

news2024/12/25 0:23:39

之前把机器学习(Machine Learning)的安全问题简单记录了一下,这里有深入研究了一些具体的概念,这里记录一下方便以后查阅。

Adversarial Machine Learning(对抗机器学习)

  • Adversarial Examples 相关内容
    • Evading Machine Learning
    • Adversarial Examples
      • Adversarial Examples 的特点
      • Adversarial Examples 的形式化定义
      • Adversarial Examples 的生成方法
      • Adversarial Examples 的防御方法
      • Non-targeted Adversarial Examples
    • 为什么会有 Adversarial Examples
    • 攻击方式的分类
      • Gradient-based attacks
      • Confidence score attacks
      • Hard label attacks
      • Surrogate model attacks
      • Brute-force attacks
    • 如何防御 Adversarial Examples
      • Formal Methods
      • Empirical Defenses
        • Adversarial training
        • Gradient masking
        • Input modification
        • Detection
        • Extra (NULL) Class
  • Adversarial Attacks 和 Adversarial Defenses
    • 对抗攻击(Adversarial Attacks)
      • Adversarial attacks 的目标
      • Adversarial attacks 的攻击方法
      • 对抗样本(Adversarial Examples)
      • Adversarial attacks 的影响
    • 对抗防御(Adversarial Defenses)
      • 对抗训练(Adversarial Training)
      • 输入预处理(Input Preprocessing)
      • 模型正则化(Model Regularization)
      • 输入转换(Input Transformation)
      • 模型架构的鲁棒性设计
      • 使用对抗样本的检测方法(Detection)
  • Randomized Neural Networks
    • Randomized neural networks 的关键特性
    • Randomized neural networks 的常见类型
      • Extreme Learning Machines (ELMs)
      • Random Vector Functional Link (RVFL)
      • Stochastic Neural Networks (SNNs)
      • Dropout & Randomized Activation
      • Randomized neural networks 的理论基础
  • 参考资料

Adversarial Examples 相关内容

机器学习技术的发展令人兴奋。然而,就像任何新技术或发明一样,机器学习不仅带来了新的惊人功能,而且不幸的是,也带来了新的漏洞。

Evading Machine Learning

对抗式 ML 领域的领军人物之一巴蒂斯塔-比吉奥(Battista Biggio)在一篇论文中指出,**对抗式机器学习(Adversarial ML)**领域最早可以追溯到 2004 年。当时,人们在垃圾邮件过滤的背景下对对抗性实例进行了研究,结果表明线性分类器很容易被垃圾邮件内容中一些精心设计的变化所欺骗。

完整时间表:
在这里插入图片描述

对抗样本(adversarial examples) 的 “新颖性 ”其实是在深度学习中发现的。2013 年,谷歌人工智能公司的克里斯蒂安-塞格迪(Christian Szegedy)正在研究神经网络如何 “思考”,却发现了一个所有神经网络似乎都具备的有趣特性–容易被微小扰动所迷惑。鉴于深度学习已经变得如此重要, adversarial example 和 Adversarial ML 领域最终成为了焦点。

下面是一些例子:

图片:用对抗眼镜欺骗人脸检测。
在这里插入图片描述

视频:DEFCON 上的隐形 T 恤。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

音频:语音到文本的转录。

在这里插入图片描述
语言:情感分析和文本关联。

在这里插入图片描述

Adversarial Examples

通过对输入数据进行精心设计的微小扰动,生成的特殊样本。这些扰动在对人类观察者来说通常不可察觉,但会导致机器学习模型做出错误或意外的预测结果。

在这里插入图片描述

Adversarial Examples 的特点

  1. 精心设计的扰动(Adversarial Perturbations)

    • 对抗样本并不是随机产生的,而是通过某种算法(如梯度攻击方法)有意生成的。
    • 这些扰动的目标是改变模型的决策边界,使其产生错误输出。
  2. 对人类而言不可见

    • 人类观察者通常无法分辨正常样本与对抗样本之间的差别。
    • 例如,一张图片的对抗样本可能只改变了像素的很小一部分,肉眼看不出差异,但深度学习模型却被误导。
  3. 目标模型依赖性

    • 对抗样本通常针对特定的模型生成,称为白盒攻击(White-Box Attack),即攻击者完全了解目标模型。
    • 黑盒攻击(Black-Box Attack)中,即使对目标模型不了解,攻击仍可能有效(通过迁移性特征)。

Adversarial Examples 的形式化定义

给定一个分类模型 f ( x ) f(x) f(x),原始输入 x x x,目标类别 y y y,对抗样本 x ′ x' x 满足以下条件:

  1. 相似性:对抗样本 x ′ x' x 与原始输入 x x x 的差异很小,可以通过某种度量(如 ∥ x − x ′ ∥ p \|x - x'\|_p xxp)衡量。
  2. 误导性:模型预测结果发生变化,即 f ( x ′ ) ≠ f ( x ) f(x') \neq f(x) f(x)=f(x)

例如:

  • 对于图像分类任务,输入 x x x 是一张狗的图片,模型预测为“狗”。
  • 添加了对抗扰动后的 x ′ x' x 仍然看起来像狗,但模型预测为“猫”。

Adversarial Examples 的生成方法

一些常见的对抗样本生成算法包括:

  1. FGSM(Fast Gradient Sign Method)
    • 使用目标模型的梯度信息,快速生成能够最大化误差的微小扰动。
  2. PGD(Projected Gradient Descent)
    • 多步优化的版本,通过多次迭代精确调整扰动。
  3. DeepFool
    • 尝试找到最小的扰动,使样本跨过模型的决策边界。
  4. C&W(Carlini and Wagner Attack)
    • 利用优化目标函数生成更强的对抗样本。

Adversarial Examples 的防御方法

  1. 对抗训练
    • 在训练过程中加入对抗样本,使模型学习到对抗扰动的模式。
  2. 输入预处理
    • 对输入数据进行平滑、裁剪或其他变换,以减少对抗扰动的影响。
  3. 正则化技术
    • 引入鲁棒性损失函数,提高模型对噪声的免疫力。
  4. 模型架构优化
    • 设计新的网络结构,使模型更加稳健。

Non-targeted Adversarial Examples

上面是一个常见的 targeted adversarial example,人眼无法检测到图像的变化。而 non-targeted adversarial examples 则是我们不用太在意对抗示例对人眼是否有意义,它对人眼来说可能只是随机噪音。

在这里插入图片描述

为什么会有 Adversarial Examples

目前存在多种假设:

  • 第一个也是最原始的假说来自 Szegedy 自己的论文,试图解释 adversarial examples,他们认为 adversarial examples 的存在是由于流形(manifold )中存在低概率的 “口袋(pockets)”(即太多非线性)以及网络正则化不良

  • 一种相反的理论,该理论由 Goodfellow 首创,他认为现代机器学习,尤其是深度学习系统中的线性度太高导致了 adversarial examples 的出现。古德费洛认为,像 ReLU 和 Sigmoid 这样的激活函数在中间基本上都是直线(恰好我们喜欢在中间保留梯度,以防止它们爆炸或消失)。因此,在神经网络中,你会看到大量的线性函数,它们相互延续输入,方向一致。如果你在某些输入上添加微小的扰动(这里和那里的几个像素),这些扰动就会在网络的另一端累积成巨大的差异,然后它就会吐出胡言乱语。

  • 第三种也可能是目前最普遍采用的假设是倾斜边界(tilted boundary)。简而言之,作者认为,由于模型永远无法完美拟合数据(否则测试集的准确率就会始终保持在 100%),因此在分类器的边界和采样数据的实际子阈值之间总会存在一些不利的输入。他们还根据经验推翻了前两种方法。

  • 麻省理工学院最近发表的一篇论文认为,对抗性示例并不是一个错误,而是神经网络观察世界的一个特征。我们人类局限于三维空间,无法将噪声模式区分开来,但这并不意味着这些噪声模式不是好的特征。我们的眼睛只是糟糕的传感器。因此,我们真正面对的是一台比我们自己更复杂的模式识别机器–与其把我们不理解的模式称为 “adversarial examples”,不如接受这个世界比我们看到的要复杂得多。如果整篇论文太长,我强烈推荐这篇 11 分钟的博客摘要。

攻击方式的分类

攻击者对目标系统(或其 “能力”)的了解非常重要。他们对您的模型及其构建方式了解得越多,就越容易对其发起攻击。

在 Calypso,将规避攻击(evasion attacks)分为五类:

  1. 使用梯度的攻击
  2. 使用置信度的攻击
  3. 使用硬标签的攻击
  4. 使用代理模型的攻击
  5. 暴力攻击

Gradient-based attacks

基于梯度的攻击(Gradient-based attacks) 顾名思义需要访问模型的梯度,因此是一种白盒攻击。这些攻击无疑是最强大的,因为攻击者可以利用他们对模型思考方式(梯度)的详细了解,从数学上优化攻击。

这也是攻击加固模型最有效的技术。事实上,研究表明,如果攻击者可以访问模型的梯度,他们就总能制作出一组新的 adversarial examples 来欺骗模型。这就是为什么 adversarial examples 如此重要的原因–抛开隐蔽性的安全性不谈,要防御对抗示例其实非常困难。

Confidence score attacks

置信度得分攻击(Confidence score attacks) 使用输出的分类置信度来估计模型的梯度,然后执行与上述基于梯度的攻击类似的智能优化。这种方法不需要攻击者了解模型的任何信息,因此属于黑盒攻击。

Hard label attacks

硬标签攻击(Hard label attacks) 只依赖模型输出的标签(“猫”、“狗”、“热狗”),不需要置信度分数。这让攻击变得更加愚蠢,但也可以说更加现实(你知道有多少公共端点会输出分类分数?) 这类攻击中最强大的仍然是边界攻击。

Surrogate model attacks

代用模型攻击(Surrogate model attacks) 与基于梯度的攻击非常相似,只是需要额外的步骤。如果对手无法访问模型的内部结构,但仍想发动 WhiteBox 攻击,他们可以尝试首先在自己的机器上重建目标的模型。他们有几种选择:

  • 如果目标模型可以作为一个预测器(oracle)来使用,攻击者可以通过反复查询端点和观察输入输出对来学习它(逆向工程 )。
  • 如果目标模型应用于标准分类任务(如人脸检测)–攻击者很可能只需猜测模型的架构和训练数据,并以此为基础构建一个副本。
  • 如果攻击者根本不掌握任何信息,由于我们前面讨论过的可转移性,他们可以简单地使用任何现成的图像分类器,并生成不完美但功能正常的对抗示例

Brute-force attacks

最后是 “暴力 ”攻击(brute-force attacks)。这些攻击完全不使用优化来生成对抗示例,而是采用简单的方法,例如:

  • 随机旋转/平移图像
  • 应用常见的扰动
  • 添加大 SD 值的高斯噪声

如何防御 Adversarial Examples

Formal Methods

让我们从 形式化方法(formal methods) 开始,因为它们更容易讨论。在芯片设计或航空航天与国防等行业工作过的人,对形式化方法一定不会陌生。对于其他人来说,形式化方法是一种数学技术,用于保证软件/硬件系统的鲁棒性。
在大多数软件中,如果设计或构建错误,可能会导致一些停机时间和一些愤怒的客户评论,但可能不会造成人员伤亡。但在某些行业,这种缺陷是不可接受的。你不可能在制造了 100 万个芯片后才发现芯片的某些部分存在缺陷,你也不可能把一架飞机送上天空,除非你用数学方法验证了每个部件都能按预期工作。

形式化方法的工作方式非常简单,就是尝试每一种可能的情况,并观察其结果如何。在规避攻击领域,这意味着在一定的扰动半径内,尝试生成每一种可能的对抗实例。举个例子,假设你有一张只有两个灰度像素的图像,比方说 180 和 80。然后,假设你决定每个方向的扰动范围为 3。这样就有 (3+1+3)² 或 49 种组合可供选择–如果你想正式验证这些组合都不具有对抗性,就必须将每种组合都放入你的模型中,看看另一端会出现什么。

在这里插入图片描述

一张 2 个像素的无色图像就有 49 种组合。那么一张 1000 x 1000 像素的彩色图像,每个方向的扰动范围都是 3 呢?这需要检查 ( 3 + 1 + 3 ) ( 3 ∗ 1000 ∗ 1000 ) (3+1+3)^{(3*1000*1000)} (3+1+3)(310001000) 种组合(EXCEL 拒绝生成数字)!

形式化方法它们并不便宜,而且从计算角度来看往往完全难以解决。事实上,就神经网络而言,当今最先进的形式化方法技术无法验证超过几层深度的网络。因此,就目前而言,这是一个值得实现但难以实现的愿望。

Empirical Defenses

经验防御(empirical defenses),顾名思义,就是依靠实验来证明防御的有效性。例如,你可能会对一个模型进行两次攻击–首先是一个正常的、未设防的版本,然后是一个加固的版本–并观察每个版本的易骗程度(希望加固的模型表现得更好)。

因此,formal methods 试图计算每一种可能的情况,并在计算过程中验证是否存在 adversarial examples,而 empirical methods 则采取 “你看到它有效,为什么还要计算 ”的方法。

下面我们就来介绍几种比较流行的方法:

  1. Adversarial training
  2. Gradient masking
  3. Input modification
  4. Detection
  5. Extra class
Adversarial training

对抗训练(Adversarial training)–当今最受关注的防御方法,也可以说是最有效的防御方法。在对抗训练过程中,防御者使用训练池中的对抗样本对模型进行再训练,但标注的是正确的标签。这可以教会模型忽略噪声,只从 “强大 ”的特征中学习。

对抗训练的问题在于,它只能使模型抵御用于制作训练池中初始样本的相同攻击。因此,如果有人使用不同的算法发起优化攻击,或发起自适应攻击(即对已防御模型发起白盒攻击),他们就能重新欺骗分类器,就像没有防御一样。

你可能会认为,你可以一遍又一遍地使用新伪造的对抗性示例来重新训练模型,但到了一定程度,你已经在训练集中插入了太多的虚假数据,以至于模型学习到的边界基本上变得毫无用处。

在这里插入图片描述
也就是说,如果目标只是让攻击者更难绕过分类器,那么对抗训练就是一个不错的选择。

Gradient masking

梯度掩蔽(gradient masking),这基本上是一种非防御手段。有一段时间,对抗性机器学习社区认为,由于需要梯度来计算对模型的强大攻击,因此隐藏梯度应该可以解决问题,但很快就被证明是错误的。

梯度掩蔽不能作为防御策略的原因是因为对抗样本的可转移性。即使您成功隐藏了模型的梯度,攻击者仍然可以构建代理,攻击它,然后传输示例。

Input modification

当输入在传递给模型之前以某种方式“清理”以消除对抗性噪声时,就会发生输入修改(input modification)。示例包括各种降噪解决方案(自动编码器、高级代表性降噪器)、颜色位深度缩减、平滑、重组 GAN、JPEG 压缩、注视点、像素偏转、通用基函数变换等等。

Detection

一些 检测(detection) 方法与输入修改密切相关——因为一旦输入被清理,它的预测就可以与原始预测进行比较,如果两者相距甚远,则输入可能已被篡改。这里有几个例子。

还一种方式。例如,在这里,他们实际上训练了一个单独的检测网络,其唯一的工作是确定输入是否是对抗性的。

一般来说,输入修改和检测方法很棒,因为它们可以应用于已经训练好的模型,并且不需要数据科学家重新训练模型。

Extra (NULL) Class

最后,还有额外的(NULL)类方法。这个想法很简单。分类器是根据非常特殊的数据分布进行训练的,根据定义,分类器在超出该分布范围时将毫无头绪。因此,与其在分类器显然不知道标签是什么的情况下强迫它猜测标签,不如给它放弃的选择。这就是 NULL 类所实现的功能(论文)。

Adversarial Attacks 和 Adversarial Defenses

对抗攻击(Adversarial Attacks)

对抗攻击是指恶意攻击者通过对输入数据进行精心设计的扰动,误导机器学习模型产生错误预测或决策的过程。这些扰动通常是微小的,不容易被人类察觉,但对于深度学习模型来说,它们可能会导致严重的错误。

对抗攻击通常基于以下几种方式:

Adversarial attacks 的目标

  • 误分类(Misclassification):目标是使模型做出错误的预测。
  • 目标攻击(Targeted Attack):攻击者希望模型输出特定的错误类别。
  • 非目标攻击(Untargeted Attack):攻击者只希望模型输出错误类别,而不关心是哪个类别。

Adversarial attacks 的攻击方法

对抗攻击可以分为白盒攻击(White-box Attack)和黑盒攻击(Black-box Attack)两种主要类型。

  • 白盒攻击(White-box Attack)

    • 攻击者知道目标模型的所有信息,包括模型架构、权重参数等。
    • 攻击者通常会利用梯度信息来生成对抗样本。
    • 常见的白盒攻击方法有:
      • FGSM (Fast Gradient Sign Method):利用目标模型的梯度信息,生成对抗样本。
      • PGD (Projected Gradient Descent):多次迭代的改进版,生成更强的对抗样本。
      • C&W Attack (Carlini & Wagner):通过优化目标函数来生成最小扰动的对抗样本。
  • 黑盒攻击(Black-box Attack)

    • 攻击者不知晓目标模型的具体结构和参数。
    • 攻击者通过观察模型的输入输出(例如,通过API)来推测模型行为并生成对抗样本。
    • 黑盒攻击的方式包括:
      • 转移攻击(Transferability Attack):在一个模型上生成对抗样本并将其应用于另一个模型(即使目标模型不同)。
      • 生成对抗网络(GAN):使用生成模型来创建对抗样本,通常也能迁移到其他模型。

对抗样本(Adversarial Examples)

对抗样本是通过对原始数据进行精心设计的小扰动生成的。这些扰动被设计为:

  • 对人类观察者不可察觉;
  • 对模型却能产生误导作用。

例如:

  • 一张猫的图片可能经过轻微的调整后仍然是猫,但深度学习模型却把它误识别为“狗”。
  • 一段正常的语音输入可能被扰动,使得语音识别系统误听为完全不同的指令。

Adversarial attacks 的影响

  • 安全性威胁:对抗攻击可能使得机器学习系统变得不可靠,尤其是在关键领域(如自动驾驶、医疗诊断)中。
  • 模型泛化能力差:对抗样本揭示了模型的脆弱性,表明模型在应对现实世界中的多样化数据时可能表现不稳定。

对抗防御(Adversarial Defenses)

对抗防御是指一系列技术,用于提高模型的鲁棒性,使其能够抵御对抗攻击,减少对抗样本的影响。以下是一些常见的对抗防御方法:

对抗训练(Adversarial Training)

  • 核心思想:将对抗样本添加到训练数据中,强制模型学习如何正确处理这些被攻击的样本。
  • 方法
    • 在训练过程中生成对抗样本,并将其与原始样本一起输入模型。
    • 目标是让模型在训练时学习到鲁棒的特征,能够识别和应对扰动。
  • 优点
    • 显著提高模型对抗攻击的鲁棒性。
  • 缺点
    • 训练时间长,计算资源消耗大。
    • 可能对正常样本的准确度造成一定影响。

输入预处理(Input Preprocessing)

  • 核心思想:通过对输入数据进行预处理,减少对抗扰动的影响。
  • 方法
    • 去噪(Denoising):去除输入中的噪声或扰动。
    • 裁剪(Clipping):将输入数据限制在某个特定范围内,防止过大的扰动。
    • 平滑化(Smoothing):平滑输入数据,减少对抗扰动的影响。
  • 优点
    • 可以在不改变模型的情况下提高模型的鲁棒性。
  • 缺点
    • 有时会降低模型对原始输入的准确性。

模型正则化(Model Regularization)

  • 核心思想:通过添加正则化项,增加模型的复杂度限制,从而增强其对抗鲁棒性。
  • 方法
    • 梯度惩罚(Gradient Penalty):惩罚模型梯度的过大波动,以防止过拟合对抗样本。
    • 网络结构的鲁棒性:设计更加复杂的神经网络结构,使其对微小扰动不敏感。
  • 优点
    • 提高了模型在不同输入下的稳定性。
  • 缺点
    • 可能导致训练过程更加复杂,并且无法完全防止对抗样本的生成。

输入转换(Input Transformation)

  • 核心思想:通过对输入进行某种变换,扰动会被减少或消除。
  • 方法
    • 图像转换:如旋转、缩放、裁剪等图像变换。
    • 加密(Encryption):对输入数据进行加密处理,使得攻击者无法有效生成对抗样本。
  • 优点
    • 在实际部署中简单有效。
  • 缺点
    • 可能降低模型的效率和性能。

模型架构的鲁棒性设计

  • 核心思想:设计网络架构,使其对抗扰动具有天然的鲁棒性。
  • 方法
    • 采用更深或更复杂的网络架构,提高模型对输入扰动的免疫力。
    • 使用正则化技术、卷积层(在图像处理中)等方法提高模型的泛化能力。
  • 优点
    • 提升模型整体性能,增强鲁棒性。
  • 缺点
    • 架构复杂性增加,可能导致计算成本增加。

使用对抗样本的检测方法(Detection)

  • 核心思想:利用专门的检测器来识别是否有对抗样本存在。
  • 方法
    • 异常检测:监测输入是否与正常输入数据有显著差异。
    • 模型行为分析:分析模型输出的稳定性,检查是否存在异常预测。

Randomized Neural Networks

Randomized Neural Networks (随机化神经网络) 是一种利用随机化策略设计的神经网络模型。它们的特点是部分或全部网络的参数是随机初始化的,并在训练过程中保持固定,或者以随机方式参与计算。这种方法广泛用于减少计算复杂性、提升泛化能力,以及探索神经网络的鲁棒性。

Randomized neural networks 的关键特性

  1. 随机性(Randomization)

    • 权重随机化:随机初始化权重,并在训练过程中保持不变,或者仅对部分层进行优化。
    • 结构随机化:通过随机选择神经元或连接方式,生成多样化的网络结构。
    • 输入或噪声随机化:在训练或推理过程中,向输入或中间层添加随机噪声以增强鲁棒性。
  2. 固定性

    • 在某些随机化神经网络中,随机权重是固定的,这意味着无需优化这些参数。这种方法有助于降低训练复杂性。
  3. 快速计算

    • 因为部分参数无需优化,计算和存储需求显著减少,适用于资源受限的环境。

Randomized neural networks 的常见类型

以下是随机化神经网络的一些典型实现:

Extreme Learning Machines (ELMs)

  • 这是随机化神经网络的经典示例。
  • 核心思想
    • 隐藏层的权重随机初始化并固定。
    • 仅优化输出层权重(通常通过线性回归求解)。
  • 优点
    • 训练速度极快。
    • 简单高效,适用于小规模数据集。
  • 缺点
    • 对随机权重敏感,泛化能力可能受限。

Random Vector Functional Link (RVFL)

  • 是对传统神经网络的扩展。
  • 核心思想
    • 在网络中添加随机生成的特征(通过随机化权重获得)。
    • 通过连接这些随机特征和原始特征提高表达能力。

Stochastic Neural Networks (SNNs)

  • 在每个神经元或连接中引入随机性。
  • 应用场景
    • 提高鲁棒性和模型的不确定性量化。
    • 在生成模型中,比如生成对抗网络(GANs)。

Dropout & Randomized Activation

  • Dropout 是一种常见的随机化技术,用于训练过程中随机丢弃部分神经元。
  • 随机化激活函数选择可以增加模型的多样性。

Randomized neural networks 的理论基础

  1. 随机特征的理论支持

    • 在高维空间中,随机映射可以生成良好的特征表示。
    • 核函数理论(Kernel Theory)表明,随机权重生成的隐层表示可以近似核映射。
  2. 泛化能力

    • 随机化策略通过增加模型的多样性,通常有助于提升模型的泛化能力。
  3. 鲁棒性

    • 随机化神经网络在对抗攻击和噪声处理方面往往表现较好,因为它们对输入扰动的敏感性降低。

参考资料

About Adversarial Examples

Evasion attacks on Machine Learning (or “Adversarial Examples”)

Tricking Neural Networks: Create your own Adversarial Examples

什么是对抗样本、对抗攻击(详解)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2264975.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

UE5 猎户座漂浮小岛 12 技能 瞬移 重力控制

1. 瞬移 1.1. 显示鼠标光标 “事件开始运行”添加显示鼠标逻辑 1.2. 释放技能蓝图 设置技能键 编写蓝图 1.3. 瞬移最大距离 2. 重力控制 2.1. 添加输入与动画 映射 重定向得到动画 新增状态FIRE_GracityControl 设置动画姿势 新增变量 切换动画 2.2. 技能蓝图(…

SpiderFlow平台v0.5.0流程的执行过程

流程执行过程: 1. 流程启动 流程的执行通常从一个 开始节点 开始,该节点是整个爬虫任务的起点。开始节点没有实际的功能作用,主要作用是标记流程的起始。 执行顺序:在执行过程中,系统按照流程中的连接线顺序依次执行…

JVM系列(十二) -常用调优命令汇总

最近对 JVM 技术知识进行了重新整理,再次献上 JVM系列文章合集索引,感兴趣的小伙伴可以直接点击如下地址快速阅读。 JVM系列(一) -什么是虚拟机JVM系列(二) -类的加载过程JVM系列(三) -内存布局详解JVM系列(四) -对象的创建过程JVM系列(五) -对象的内存分…

【Java基础面试题033】Java泛型的作用是什么?

Java的基础语法可以看尚硅谷的这个PDF:尚硅谷JavaSE基础/《Java从入门到精通(JDK17版)》_尚硅谷电子书.pdf Autism_Btkrsr/Blog_md_to_pdf - 码云 - 开源中国 (gitee.com) 回答重点 Java泛型的作用是通过在编译时检查类型安全,允许程序员编写更通用和…

如何永久解决Apache Struts文件上传漏洞

Apache Struts又双叒叕爆文件上传漏洞了。 自Apache Struts框架发布以来,就存在多个版本的漏洞,其中一些漏洞涉及到文件上传功能。这些漏洞可能允许攻击者通过构造特定的请求来绕过安全限制,从而上传恶意文件。虽然每次官方都发布补丁进行修…

重生之我在异世界学编程之C语言:深入动态内存管理收尾 + 柔性数组篇

大家好,这里是小编的博客频道 小编的博客:就爱学编程 很高兴在CSDN这个大家庭与大家相识,希望能在这里与大家共同进步,共同收获更好的自己!!! 本文目录 引言正文常见的动态内存管理错误&#xf…

重温设计模式--观察者模式

文章目录 观察者模式(Observer Pattern)概述观察者模式UML图作用:实现对象间的解耦支持一对多的依赖关系易于维护和扩展 观察者模式的结构抽象主题(Subject):具体主题(Concrete Subject&#xf…

python使用pip进行库的下载

前言 现如今有太多的python编译软件,其库的下载也是五花八门,但在作者看来,无论是哪种方法都是万变不离其宗,即pip下载。 pip是python的包管理工具,无论你是用的什么python软件,都可以用pip进行库的下载。 …

Apache Solr RCE(CVE-2017-12629)--vulhub

Apache Solr 远程命令执行漏洞(CVE-2017-12629) Apache Solr 是一个开源的搜索服务器。Solr 使用 Java 语言开发,主要基于 HTTP 和 Apache Lucene 实现。原理大致是文档通过Http利用XML加到一个搜索集合中。查询该集合也是通过 http收到一个…

apisix转发websocket

1、说明 apisix网关对接websocket,参数以及使用可以看官方文档 WebSocket Authentication | Apache APISIX -- Cloud-Native API Gateway 注意事项: (1)官方文档是websocket要加认证,但自测发现可以不加认证插件 …

【unity】【游戏开发】Unity项目一运行就蓝屏报Watch Dog Timeout

【背景】 由于是蓝屏所以没法截屏,总之今天遇到了一开Unity,过一阵就蓝屏的情况,报Watch Dog Timeout。 【分析】 通过任务管理器查看,发现Unity占用率100%,再观察Unity内部,每次右下角出现一个Global I…

【unity小技巧】unity最完美的CharacterController 3d角色控制器,实现移动、跳跃、下蹲、奔跑、上下坡、物理碰撞效果,复制粘贴即用(2024/12/12补充)

最终效果 文章目录 最终效果更好的方式(2024/12/12补充)前言为什么使用CharacterControllerSimpleMove和Move如何选择?1. SimpleMove2. Move 配置CharacterController参数控制相机移动跳跃方式一方式二 下蹲处理下坡抖动问题实现奔跑和不同移…

sentinel学习笔记6-限流降级(上)

本文属于sentinel学习笔记系列。网上看到吴就业老师的专栏,写的好值得推荐,我整理的有所删减,推荐看原文。 https://blog.csdn.net/baidu_28523317/category_10400605.html sentinel 实现限流降级、熔断降级、黑白名单限流降级、系统自适应…

使用 UniApp 在微信小程序中实现 SSE 流式响应

概述 服务端发送事件(Server-Sent Events, SSE)是一种允许服务器向客户端推送实时更新的技术。SSE 提供了一种单向的通信通道,服务器可以持续地向客户端发送数据,而不需要客户端频繁发起请求。这对于需要实时更新的应用场景非常有…

监控易在汽车制造行业信息化运维中的应用案例

引言 随着汽车制造行业的数字化转型不断深入,信息化类IT软硬件设备的运行状态监控、故障告警、报表报告以及网络运行状态监控等成为了企业运维管理的关键环节。监控易作为一款全面、高效的信息化运维管理工具,在汽车制造行业中发挥着重要作用。本文将结合…

Unity DOTS中的share component

Unity DOTS中的share component 内存管理创建流程修改流程销毁流程Reference share component是DOTS中一类比较特殊的component,顾名思义,它是全局共享的component,所有具有相同component值的entity,共享一个component&#xff0c…

外连接转AntiJoin的应用场景与限制条件 | OceanBase SQL 查询改写系列

在《SQL 改写系列:外连接转内连接的常见场景与错误》一文中,我们了解到谓词条件可以过滤掉连接结果中的 null 情形的,将外连接转化为内连接的做法是可行的,正如图1中路径(a)所示。此时,敏锐的你或许会进一步思考&#…

Facebook的去中心化探索:社交平台的新型发展趋势

随着数字化进程的加速,社交平台的架构正在经历一场深刻的变革。从最初的集中的社交网络到如今去中心化的构想,社交平台正在朝着更加透明、开放和用户主导的方向发展。作为全球最大的社交平台之一,Facebook(现Meta)也在…

Facebook 与数字社交的未来走向

随着数字技术的飞速发展,社交平台的角色和形式也在不断演变。作为全球最大社交平台之一,Facebook(现Meta)在推动数字社交的进程中扮演了至关重要的角色。然而,随着互联网的去中心化趋势和新技术的崛起,Face…

LeetCode:222.完全二叉树节点的数量

跟着carl学算法,本系列博客仅做个人记录,建议大家都去看carl本人的博客,写的真的很好的! 代码随想录 LeetCode:222.完全二叉树节点的数量 给你一棵 完全二叉树 的根节点 root ,求出该树的节点个数。 完全二…