一文搞懂!如何高效微调你的 LLM

news2024/11/22 10:07:20

format,png

作者 | guolipa 

整理 | NewBeeNLP 公众号

https://zhuanlan.zhihu.com/p/621700272

当前以 ChatGPT 为代表的预训练语言模型(PLM)规模变得越来越大,在消费级硬件上进行全量微调(Full Fine-Tuning)变得不可行。此外,为每个下游任务单独存储和部署微调模型变得非常昂贵,因为微调模型与原始预训练模型的大小相同。

参数高效微调方法(Parameter-Efficient Fine-Tuning,PEFT) 方法被提出来解决这两个问题, PEFT 可以使 PLM 高效适应各种下游应用任务,而无需微调预训练模型的所有参数

微调大规模 PLM 所需的资源成本通常高得令人望而却步。 在这方面, PEFT 方法仅微调少量或额外的模型参数,固定大部分预训练参数,大大降低了计算和存储成本 ,同时最先进的 PEFT 技术也能实现了与全量微调相当的性能。

Huggface 开源的一个高效微调大模型的库PEFT[1] ,该算法库支持以下四类方法:

  • LoRA: LoRA: Low-Rank Adaptation of Large Language Models[2]

  • Prefix Tuning: Prefix-Tuning: Optimizing Continuous Prompts for Generation[3], P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks[4]

  • P-Tuning: GPT Understands, Too[5]

  • Prompt Tuning: The Power of Scale for Parameter-Efficient Prompt Tuning[6]

LLM-Adapters[7] 是对 PEFT 库的扩展,是一个简单易用的框架,将各种适配器集成到 LLM 中,可针对不同的任务执行 LLM 的基于适配器的 PEFT 方法,除了 PEFT 支持的 LoRA、Prefix Tuning、P-Tuning、Prompt Tuning 方法外,主要扩增了 AdapterH、AdapterP 和 Parallel 三种方法。

AdapterH: Parameter-Efficient Transfer Learning for NLP[8]
AdapterP: GMAD-X: An Adapter-Based Framework for Multi-Task Cross-Lingual Transfer[9]
Parallel: Towards a Unified View of Parameter-Efficient Transfer Learning[10]

如下图所示,PEFT 方法可以分为三类,不同的方法对 PLM 的不同部分进行下游任务的适配:

  • Prefix/Prompt-Tuning :在模型的输入或隐层添加 k 个额外可训练的前缀 tokens(这些前缀是连续的伪 tokens,不对应真实的 tokens),只训练这些前缀参数;

  • Adapter-Tuning :将较小的神经网络层或模块插入预训练模型的每一层,这些新插入的神经模块称为 adapter(适配器),下游任务微调时也只训练这些适配器参数;

  • LoRA :通过学习小参数的低秩矩阵来近似模型权重矩阵 W 的参数更新,训练时只优化低秩矩阵参数。

5e62d9257193fa649850320588516264.jpeg
Transformer 结构和最先进的 PEFT 方法

一. Prefix Tuning

Prefix-Tuning 在模型输入前添加一个连续的且任务特定的向量序列 (continuous task-specific vectors),称之为 前缀(prefix) 。前缀被视为一系列“虚拟 tokens”,但是它由不对应于真实 tokens 的自由参数组成。

与更新所有 PLM 参数的全量微调不同, Prefix-Tuning 固定 PLM 的所有参数,只更新优化特定任务的 prefix 。因此,在生产部署时,只需要存储一个大型 PLM 的副本和一个学习到的特定任务的 prefix,每个下游任务只产生非常小的额外的计算和存储开销。

3de1e7a0a1b73b4a041f7f66067da4fe.png

Fine-tuning 更新所有 PLM 参数,并且需要为每个任务存储完整的模型副本。Prefix-tuning 冻结了 PLM 参数并且只优化了 prefix。因此,只需要为每个任务存储特定 prefix,使 Prefix-tuning 模块化且节省存储空间。

如下图所示,以 GPT2 的自回归语言模型为例,将输入 x 和输出 y 拼接为 ,经过 LM 的某一层计算隐层表示

其中, 和 分别为输入和输出序列的索引。

67883d0beaa388e82e915fd83814898d.png
Prefix-Tuning 示例图

Prefix-Tuning 在输入前添加前缀,即 , 为前缀序列的索引, 为前缀的长度。

前缀索引对应着由 参数化的向量矩阵 ,维度为 。隐层表示的计算如下式所示,若索引为前缀索引  ,直接从 复制对应的向量作为 ( 在模型每一层都添加前缀向量 );否则直接通过 LM 计算得到,同时,经过 LM 计算的 也依赖于其左侧的前缀参数 ,即 通过前缀来影响后续的序列隐层激化值

<

但是直接优化 会导致训练不稳定,通过一个更小的矩阵 和一个更大的前馈神经网络 对 进行重参数化: 。在训练时,LM 的参数 被固定,只有前缀参数 为可训练的参数。训练完成后,只有前缀 被保存。

在实验中,作者进行了两组方法变体的对比分析:

[ Full vs Embedding-only ]: Embedding-only 方法只在 embedding 层添加前缀向量并优化,而 Full 代表的 Prefix-tuning 不仅优化 embedding 层添加前缀参数,还在模型所有层的激活添加前缀并优化。实验得到一个不同方法的 表达能力增强链条:discrete prompting < embedding-only < prefix-tuning 。同时,Prefix-tuning 可以直接修改模型更深层的表示,避免了跨越网络深度的长计算路径问题。

[ Prefix-tuning vs Infix-tuning ]: 通过将可训练的参数放置在 x 和 y 的中间来研究可训练参数位置对性能的影响,即 [x;Infix;y] ,这种方式成为 Infix-tuning。实验表明 Prefix-tuning 性能好于 Infix-tuning ,因为 prefix 能够同时影响 x 和 y 的隐层激活,而 infix 只能够影响 y 的隐层激活。

a59f74828665be2acde9ae954f1a4ea0.png

同时,研究表明前缀的 embedding 使用词表中真实单词的激活来初始化明显优于随机初始化。

二. P-Tuning

P-Tuning 的方法思路与 Prefix-Tuning 很相近,P-Tuning 利用少量连续的 embedding 参数作为 prompt 使 GPT 更好的应用于 NLU 任务,而 Prefix-Tuning 是针对 NLG 任务设计 。同时, P-Tuning 只在 embedding 层增加参数,而 Prefix-Tuning 在每一层都添加可训练参数

如下图所示,具体的 NLU 任务以预测一个城市的首都为例,

  • 一个离散的 prompt 模板 T 可以写为:"The capital of Britain is [MASK].",其中"Britain"为输入的上下文 x ,"[MASK]"位置为需要输出的目标 y 。

  • 而对于连续的 prompt 模板可以表示为: ,其中, 表示模板 T 中 个 prompt token,且为伪 token。经过嵌入层将模板 T 映射为:,其中 为可训练的参数,而其它预训练的真实token向量以及模型权重参数都被固定。

1535cabef790f8ca17bcdbae177e5535.png
P-Tuning 示例图

直接优化连续的 prompt 参数面临两个挑战:一是预训练模型原始的词向量已经高度离散,若随机初始化 prompt 向量并进行 SGD 优化,也只会在小范围内优化并陷入局部最小值;二是 prompt 向量之间是相互关联而不是独立的。论文中 设计了一个 prompt 编码器,该编码器由一个 Bi-LSTM 和一个两层的前馈神经网络组成,对 prompt embedding 序列进行编码后再传入到语言模型中

论文的实验主要表明了:在 SuperGLUE 基准测试中,P-tuning 使得 GPT-style 的生成式模型与相同大小的 BERT 在 NLU 方面实现可比较,有时甚至更好的性能。

P-Tuning V2 方法的思路其实和 Prefix-Tuning 相似,在 模型的每一层都应用连续的 prompts 并对 prompts 参数进行更新优化。同时,该方法是 针对 NLU 任务优化和适配 的。

78b96a6a92542f0b41f8d5f304e7d1bc.png
P-Tuning V2 示例图

三. Prompt Tuning

Prompt Tuning 方式可以看做是 Prefix Tuning 的简化, 固定整个预训练模型参数,只允许将每个下游任务的额外k个可更新的 tokens 前置到输入文本中,也没有使用额外的编码层或任务特定的输出层

如下图所示,在模型大小增加到一定规模时,仅仅使用 Prompt Tuning 就足以达到 Fine Tuning 的性能。

b3886fd8fb7091370509371c348cc4d1.png

T5 的 Model Tuning 实现了强大的性能,但需要为每个任务存储单独的模型副本。 随着模型规模的增加,对 T5 的 Prompt Tuning 与 Model Tuning 的性能相当,同时允许所有任务复用同一固定模型。Prompt Tuning 方法明显优于使用 GPT-3 的少样本 Prompt Design。

Prompt Tuning 以 T5 为基础,将所有任务转化成文本生成任务,表示为 。Prompt Tuning 在输入 X 前额外添加一系列特殊 tokens ,输入语言模型生成 ,即 。其中, 为预训练模型参数,在训练过程被固定, 为 prompts 的专有参数,在训练过程被更新优化。通过将输入 X 的 embedding 矩阵 与 prompts 的 embedding 矩阵进行拼接 输入 T5 模型,最大化 Y 的概率训练模型,但是只有 prompt 参数被更新。

b431380ad5d6a38b21eee4e41f8fd9b0.png

模型微调需要制作整个预训练模型的任务特定副本,推理分批执行。Prompt tuning 只需为每个任务存储一个 Task Prompts,并使用原始预训练模型进行混合任务推理。

Prompt Tuning 提出了 Prompt Ensembling 方法来集成预训练语言模型的多种 prompts。 通过在同一任务上训练 N 个 prompts,为一个任务创建了 N 个单独的模型,同时在整个过程中共享核心的预训练语言建模参数。 除了大幅降低存储成本外,提示集成还使推理更加高效。 处理一个样例时,可以执行批此大小为N的单个前向传递,而不是计算 N 次不同模型的前向传递,跨批次复制样例并改变 prompts。在推理时可以使用 major voting 方法从 prompt ensembling 中得到整体的预测。

四. Adapter Tuning

与 Prefix Tuning 和 Prompt Tuning 这类在输入前可训练添加 prompt embedding 参数来以少量参数适配下游任务, Adapter Tuning 则是在预训练模型内部的网络层之间添加新的网络层或模块来适配下游任务

假设预训练模型函数表示为 ,对于 Adapter Tuning ,添加适配器之后模型函数更新为: , 是预训练模型的参数, 是新添加的适配器的参数,在训练过程中, 被固定,只有 被更新。 ,这使得不同下游任务只需要添加少量可训练的参数即可,节省计算和存储开销,同时共享大规模预训练模型。

Adapter 主要包括 Series Adapter(串行) 和 Parallel Adapter(并行):

  • Series Adapter 的适配器结构和与 Transformer 的集成如下图(a)所示。 适配器模块被添加到每个 Transformer 层两次:多头注意力映射之后和两层前馈神经网络之后 。适配器是一个 bottleneck(瓶颈)结构的模块,由一个两层的前馈神经网络(由向下投影矩阵、非线性函数和向上投影矩阵构成)和一个输出输出之间的残差连接组成。

  • Parallel Adapter如下图(b)所示。 将适配器模块与每层 Transformer 的多头注意力和前馈层并行计算集成

672c1d36d10ed34ccc7f75528c55c271.jpeg

五. LoRA

现有的 PEFT 方法主要有两类:Adapter Tuning 和 Prefix Tuning。

  • Adapter Tuning 在 PLM 基础上添加适配器层会引入额外的计算,带来推理延迟问题;

  • 而 Prefix Tuning 难以优化,其性能随可训练参数规模非单调变化,更根本的是,为前缀保留部分序列长度必然会减少用于处理下游任务的序列长度。

1. 方法原理

给定一个由 参数化的预训练的自回归语言模型 ,对于全量微调,模型参数由预训练权重 初始化,并反复跟随使得条件语言模型目标函数最大化的梯度更新至 。

<

全量微调的一个主要缺点就是针对每个下游任务都学习和预训练权重维度相同的全新参数集合  ,即 。尤其是 GPT-3 175B 这类大模型,全量微调对计算和存储资源的消耗是非常大的,存储和部署不同微调模型实例也是不可能的。

LoRA 论文提出了一种计算和存储高效的低秩(Low-Rank)表示方法,利用更小规模的参数集合 来对任务特定的参数增量进行编码, ) 。利用该方法对 175B GPT-3 微调,需要训练更新的参数数量 可以小到全量微调参数数量 的 。

具体地,Transformer 等神经网络包含许多执行矩阵乘法的密集层,这些权重矩阵通常具有满秩。研究Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning[11] 表明预训练的语言模型具有较低的"内在维度(Instrisic Dimension)",并且可以和完整参数空间一样进行有效学习。

受此启发,假设权重的更新在微调适配过程中也具有较低的"内在秩(Instrisic Rank)"。对于预训练模型的权重矩阵 ,通过低秩分解(Low-Rank Decomposition)来表示约束其更新。

其中, 。训练过程, 被固定不再进行梯度更新,只训练 A 和 B ,如下图所示。对于输入 x ,模型的前向传播过程 被更新为:

496a201d1c8da766a0124c636e04520e.png
LoRA重参数化示意图,预训练模型的参数W固定,只训练A和B参数

2. 方法优点

  • 全量微调的一般化 :LoRA 不要求权重矩阵的累积梯度更新在适配过程中具有满秩。当对所有权重矩阵应用 LoRA 并训练所有偏差时,将 LoRA 的秩 r 设置为预训练权重矩阵的秩,就能大致恢复了全量微调的表现力。也就是说,随着增加可训练参数的数量,训练 LoRA 大致收敛于训练原始模型。

  • 没有额外的推理延时 :在生产部署时,可以明确地计算和存储 ,并正常执行推理。当需要切换到另一个下游任务时,可以通过减去 BA 来恢复 ,然后增加一个不同的 B'A' ,这是一个只需要很少内存开销的快速运算。最重要的是,与结构参数上微调的模型相比,LoRA 推理过程中没有引入任何额外的延迟。

  • 减少内存和存储资源消耗 :对于用 Adam 训练的大型 Transformer,若 ,LoRA 减少 2/3 的VRAM 用量(训练模型时,模型参数往往都会存储在显存 VRAM 中),因为不需要存储已固定的预训练参数 的优化器状态,可以用更少的GPU进行大模型训练。在 GPT-3 175B 上,训练期间的 VRAM 消耗从 1.2TB 减少到 350GB。在 r=4 且只有query 和 value 矩阵被调整的情况下,checkpoint 的大小大约减少了 10,000 倍(从 350GB 到 35MB)。另一个好处是,可以在部署时以更低的成本切换任务,只需更换 LoRA 的权重,而不是所有的参数。可以创建许多定制的模型,这些模型可以在将预训练的权重存储在 VRAM 中的机器上进行实时切换。在 GPT-3 175B 上训练时,与完全微调相比,速度提高了25%,因为我们不需要为绝大多数的参数计算梯度。

3. 实验分析

实验将五种方法进行对比,包括:Fine-Tuning (全量微调)、Bias-only or BitFit(只训练偏置向量)、Prefix-embedding tuning (PreEmbed,上文介绍的 Prefix Tuning 方法,只优化 embedding 层的激活)、Prefix-layer tuning (PreLayer,Prefix Tuning 方法,优化模型所有层的激活)Adapter tuning(不同的 Adapter 方法:、、 、 、)

实验结果以 LoRA 在 GPT-3 175B 上的验证分析为例。如下表所示, LoRA 在三个数据集上都能匹配或超过微调基准,证明了 LoRA 方法的有效性

51bd752264a1616bfe4bd860ad696f1d.png

GPT-3 上不同适配方法性能。展示了 WikiSQL 上的逻辑形式验证精度,MultiNLI-matched 上的精度,以及SAMSum上 的 Rouge-1/2/L 值。LoRA 比之前的方法表现更好,包括全量微调。在 WikiSQL 上的结果有 ±0.5% 左右的波动,MNLI-m 有 ±0.1% 左右的波动,SAMSum 有 ±0.2/±0.2/±0.1 左右的三个指标

但是, 并不是所有方法都能从拥有更多的可训练参数中获益,而 LoRA 表现出更好的可扩展性和任务性能 。当使用超过256个特殊token进行 Prefix-embedding tuning 或使用超过32个特殊 tokens 进行 Prefix-layer tuning时,可以观察到性能明显下降。

8e82f36094b4868dda48be6bb19aee90.png
GPT-3 175B 准确率与WikiSQL和MNLI匹配的几种适配方法的可训练参数数的关系

[ 应该对 Transformer 中的哪些权重矩阵应用 LoRA ?] 把所有的参数放在 或 中会导致性能明显下降,同时适配 和 会产生最好的结果。这表明,即使 r=4 的较小秩也能在 中捕捉到足够的信息,因此, 适配更多的权重矩阵比适配具有较大秩的单一类型的权重矩阵更可取

db8bc5f10093ae8f19e45fe7efb714cd.png
在可训练参数量相同的情况下,将LoRA应用于GPT-3中不同类型的注意力权重后,WikiSQL和MultiNLI的验证准确率

[ LORA的最佳秩是什么? ] LoRA 在很小的 r 下已经有了很好的表现了(适配 比只适配 更有竞争力)。这表明 更新矩阵 可能有一个很小的 "intrinsic rank",增加秩 r 不一定能够覆盖一个更有意义的子空间,一个低秩的适配矩阵已经足够

b44875def15f5983a460ebc25b2d1aae.png
在WikiSQL和MultiNLI上用不同的秩 r 进行验证的准确性

[适配矩阵 \Delta W W 关系如何?] 通过计算 U^{T}WV^{T} 将 W 投射到 \Delta W 的 r 维子空间, U/V 是 \Delta W 的左/右奇异向量矩阵。然后,比较 ||U^{T}WV^{T}||_{F} 和 ||W||_{F} 之间的 Frobenius 范数。作为比较,还计算了将 ||U^{T}WV^{T}||_{F}中 U 、 V 替换为 W 的前 r 个奇异向量或一个随机矩阵。

  • 与随机矩阵相比, \Delta W 与 W 有更强的相关性,表明 \Delta W 放大了 W 中已有的一些特征;

  • \Delta W 没有重复 W 的顶级奇异方向,而只是放大了 W 中没有强调的方向;

  • 低秩适配矩阵可能会放大特定下游任务的重要特征,而这些特征在一般的预训练模型中没有得到强调

fa506aa7ca5408e227228b17de876c36.png
不同秩下 Frobenius 范式

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)

format,png


本文参考资料

[1]

PEFT: https://github.com/huggingface/peft

[2]

LoRA: Low-Rank Adaptation of Large Language Models: https://arxiv.org/abs/2106.09685

[3]

Prefix-Tuning: Optimizing Continuous Prompts for Generation: https://aclanthology.org/2021.acl-long.353/

[4]

P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks: https://arxiv.org/pdf/2110.07602.pdf

[5]

GPT Understands, Too: https://arxiv.org/abs/2103.10385

[6]

The Power of Scale for Parameter-Efficient Prompt Tuning: https://arxiv.org/abs/2104.08691

[7]

LLM-Adapters: https://arxiv.org/abs/2304.01933

[8]

Parameter-Efficient Transfer Learning for NLP: https://arxiv.org/pdf/1902.00751.pdf

[9]

GMAD-X: An Adapter-Based Framework for Multi-Task Cross-Lingual Transfer: https://arxiv.org/pdf/2005.00052.pdf

[10]

Towards a Unified View of Parameter-Efficient Transfer Learning: https://arxiv.org/pdf/2110.04366.pdf

[11]

Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning: https://arxiv.org/pdf/2012.13255.pdf

3b137f529d57af966f9c979fe0203918.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/531071.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

NIPS2022|南京大学提出基于点击后行为的广义延迟反馈模型

Generalized Delayed Feedback Model with Post-Click Information in Recommender Systems Jia-Qi Yang De-Chuan Zhan Nanjing University https://proceedings.neurips.cc/paper_files/paper/2022/file/a7f90da65dd41d699d00e95700e6fa1e-Paper-Conference.pdf 转化率预估&a…

记录--css水滴登录界面

这里给大家分享我在网上总结出来的一些知识&#xff0c;希望对大家有所帮助 前言 今天我们来分享一款非常有趣的登录界面&#xff0c;它使用HTML和CSS制作&#xff0c;具有动态的水波纹效果&#xff0c;让用户在登录时感受到了一股清凉之感。 基本html框架 <!DOCTYPE html&g…

营收“新高”盈利“新低”,东软还能“硬起来”吗?

‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 “2022年是商业环境艰难和动荡的一年。在过去的一年中&#xff0c;东软集团面对经济下行压力、汇率双向波动等诸多外部不确定性因素的影响&#xff0c;特别是第四季度的影响&#xff0c;使得东软的业务和项目节奏被严重拖累…

Spring Security 基本介绍及基础项目搭建

目录 SpringSecurity 框架简介 概要 历史 同款产品对比shiro SpringSecurity 入门案例 创建一个项目 添加一个配置类 运行这个项目 权限管理中的相关概念 SpringSecurity 基本原理 过滤器链 ​编辑 UserDetailsService 接口讲解 PasswordEncoder 接口讲解 Spri…

软件工程(三)-统一过程与敏捷方法

1、统一过程 统一过程也叫UP或者RUP。这种开发方法是在基于构建的方法发展而来&#xff0c;也是基于构建化的思想发展而来。 统一过程的三大特点 用例驱动 在进行软件开发过程中&#xff0c;是用什么驱动力去推动整个过程 用例驱动就是一开始会构建用例&#xff0c;然后一步一…

人脸识别2:InsightFace实现人脸识别Face Recognition(含源码)

目录 1. 前言 2. 项目安装 3. 人脸识别系统 &#xff08;1&#xff09;人脸检测和关键点检测 &#xff08;2&#xff09;人脸校准 &#xff08;3&#xff09;人脸特征提取 &#xff08;4&#xff09;人脸比对(1:1) &#xff08;5&#xff09;人脸搜索(1:N) &#xff08…

【操作系统】文件管理

文章目录 文件管理初识文件的属性文件内部的数据如何组织起来&#xff1f;文件之间应该如何组织起来&#xff1f;操作系统应该向上提供哪些功能&#xff1f;从上往下看&#xff0c;文件应该如何存放在外存&#xff1f;其他需要由操作系统实现的文件管理功能 文件的逻辑结构无结…

【CVPR 2023的AIGC应用汇总(8)】3D相关(编辑/重建/生成) diffusion扩散/GAN生成对抗网络方法...

【CVPR 2023的AIGC应用汇总(7)】face相关&#xff08;换脸/编辑/恢复&#xff09; diffusion扩散/GAN生成对抗 【CVPR 2023的AIGC应用汇总(6)】医学图像diffusion扩散/GAN生成对抗网络 【CVPR 2023的AIGC应用汇总(5)】语义布局可控生成&#xff0c;基于diffusion扩散/GAN生成对…

Java数据库项目之满汉楼

文章和代码已经归档至【Github仓库&#xff1a;https://github.com/timerring/java-tutorial 】或者公众号【AIShareLab】回复 java 也可获取。 文章目录 程序框架图代码实现数据库Java多表查询思路 程序框架图 代码实现 数据库 -- 创建满汉楼的数据库 CREATE DATABASE mhl -…

输入输出IO流

文章目录 1.数据源2.流3.IO流的分类4.字节流4.1文件字节输入流1. FileInputStream类概述2. FileInputStream类构造方法3. FileInputStream类常用方法 4.2文件字节输出流1. FileOutputStream类概述2. FileOutputStream类构造方法3. FileOutputStream类常用方法 5字符流5.1. File…

philsolophy of life: blessing in disguise

有个成语叫: "塞翁失马" , 这个讲的是在战国时期&#xff0c;有个叫"塞翁"的老人养了很多马&#xff0c;有一天他丢了一匹马&#xff0c;邻居来劝说他&#xff0c;不要着急&#xff0c;说不定哪天就回来了&#xff0c;"丢了一匹马或许是好事&#xf…

【壁纸小程序】推荐一款壁纸小程序

壁纸很多 直接在手机切换下载即可 感兴趣的朋友可以看看 小程序二维码

第五章 介绍Productions - 业务流程和业务逻辑

文章目录 第五章 介绍Productions - 业务流程和业务逻辑业务流程和业务逻辑介绍业务流程的类型数据转换业务规则 第五章 介绍Productions - 业务流程和业务逻辑 业务流程和业务逻辑 本章描述业务流程中支持的逻辑种类。 介绍 业务流程是production的中间部分。它们接受来自…

Spring【Again】——复杂POJO的绑定

简单介绍&#xff1a; Again系列是将之前的内容我认为做的不好的地方或者是理解不到位的地方再来一次&#xff0c;加深记忆或者改错。我们就在来复习一下之前我们说过的复杂类型的数据绑定。 先来复习一下简单数据绑定&#xff1a; 简单数据绑定就是我们在传递参数的时候&am…

京东jd商品详情API接口(item_get-根据ID取商品详情)代码封装

item_get-根据ID取商品详情接口 通过代码封装该接口可以拿到商品标题&#xff0c;商品价格&#xff0c;商品促销信息&#xff0c;商品优惠价&#xff0c;商品库存&#xff0c;sku属性&#xff0c;商品图片&#xff0c;desc图片&#xff0c;desc描述&#xff0c;sku图片&#xf…

文件上传下载系列——大文件分片上传

文章目录 概述实现步骤&#xff1a;应用场景 代码实操&#xff1a;前端&#xff1a;文件切片&#xff1a;分片上传&#xff1a; 后端&#xff1a;校验和保存&#xff1a;合并文件片段&#xff1a;完成上传&#xff1a; 总结优点&#xff1a;缺点&#xff1a; 升华 概述 文件分片…

spring cache和SpEL表达式

spring cache的 CachePut如果方法体内容变了,缓存还有效吗 当使用CachePut注解时&#xff0c;其目的是更新缓存&#xff0c;即在方法执行完毕后将返回结果加入缓存中。如果方法体内容发生变化&#xff0c;则更新后的结果会被加入缓存中&#xff0c;而缓存中原来的数据会被替换…

ORACLE 新闻速递 ORACLE 23C 免费提供给开发者 为什么???

开头还是介绍一下群&#xff0c;如果感兴趣polardb ,mongodb ,mysql ,postgresql ,redis 等有问题&#xff0c;有需求都可以加群群内有各大数据库行业大咖&#xff0c;CTO&#xff0c;可以解决你的问题。加群请联系 liuaustin3 &#xff0c;在新加的朋友会分到2群&#xff08;共…

利用AI将脑信号解码为神经义肢控制

机器学习和人工智能的快速发展&#xff0c;它们已经产生了一系列能够学习大量数据之间复杂非线性关系的神经网络模型。深度学习算法在各种应用中取得了巨大的成功&#xff0c;包括计算机视觉、自然语言处理和机器人类等。最近&#xff0c;神经网络的中一项引人注目的应用是通过…

B 站构建实时数据湖的探索和实践

摘要&#xff1a;本文整理自 bilibili 大数据实时团队资深开发工程师周晖栋&#xff0c;在 Flink Forward Asia 2022 实时湖仓专场的分享。本篇内容主要分为四个部分&#xff1a; 1. 背景和痛点 2. 场景探索 3. 基建优化 4. 总结和展望 Tips&#xff1a;点击「阅读原文」查看原…