Child Tuning: 反向传播版的Dropout

news2024/11/20 11:30:06

这篇文章主要是对EMNLP2021上的论文Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning进行讲解。论文标题有些抽象,但是用作者的话来说,这篇论文的思想可以归结为两个词:Child Tuning

虽然这篇文章主要针对NLP任务以及NLP相关的模型,但实际上我看完之后觉得这是一个通用的方法,CV领域也可以使用。具体来说,目前预训练模型的参数非常大,在下游任务中,我们只能用有限的训练集对模型进行微调,有一种螳臂当车的感觉,因此作者提出了一种新的微调方法——Child Tuning。如果用一句话概述其思想那就是:在反向传播过程中,我们不用更新所有的参数,只更新某些参数即可,而这些被更新的参数所对应的网络结构,我们叫做Child Network(子网络)

如上图所示,上面一行是正常的反向传播过程,其中
Δ w 0 = − η ∂ L ∂ w 0 (1) \Delta w_0 = -\eta \frac{\partial \mathcal{L}}{\partial \mathbf{w}_0}\tag{1} Δw0=ηw0L(1)
下标0不是指某一个参数,而是指第0个迭代过程, η \eta η是学习率。对于下面一行来说, Δ w 0 \Delta \mathbf{w}_0 Δw0有一部分被MASK掉了,导致这里面的梯度为0
Δ w 0 = − η ∂ L ∂ w 0 ⊙ M (2) \Delta w_0 = -\eta \frac{\partial \mathcal{L}}{\partial \mathbf{w}_0} \odot M\tag{2} Δw0=ηw0LM(2)
其中, M M M矩阵内的元素非0即1, ⊙ \odot 是矩阵内的元素做对应位置相乘。我们可以用两步来概括Child Tuning的过程:

  1. 在预训练模型中发现并确认Child Network,并生成对应Weights的0-1 MASK
  2. 反向传播计算完梯度后,仅对Child Network中的参数进行更新

所以现在的问题是如何确认Child Network?

How to find Child Network?

实际上我们并不需要真的找到Child Network,只要确定矩阵 M M M即可。论文提供了两种算法用于生成矩阵 M M M,分别是任务无关算法Child_Tuning_F (F for Task-Free)以及与具体任务相关的算法Child_Tuning_D (D for Task-Drivern)

Child_Tuning_F

任务无关算法的意思是与你具体所做的具体任务没有关系,都可以使用这个算法,是一种通用的方法。具体来说,此时** M M M是根据伯努利分布生成的**
w t + 1 = w t − η ∂ L ( w t ) ∂ w t ⊙ M t M t ∼ Bernoulli ( p F ) (3) \begin{aligned} \mathbf{w}_{t+1}&=\mathbf{w}_{t}-\eta \frac{\partial \mathcal{L}\left(\mathbf{w}_{t}\right)}{\partial \mathbf{w}_{t}} \odot M_{t}\\ M_{t} &\sim \text{Bernoulli}(p_F) \end{aligned}\tag{3} wt+1Mt=wtηwtL(wt)MtBernoulli(pF)(3)
其中 p F ∈ [ 0 , 1 ] p_F\in [0,1] pF[0,1]是一个超参数,他控制着Child Network的大小,如果 p F = 1 p_F=1 pF=1,则Child Network就是原网络,此时Child Tuning就是Fine Tuning;如果 p F = 0 p_F=0 pF=0,则没有任何参数会被更新。下面是我写的一个简单模拟的代码帮助大家理解

import torch
from torch.distributions.bernoulli import Bernoulli

gradient = torch.randn((3, 4)) # 这里用一个随机生成的矩阵来代表梯度
p_F = 0.2
gradient_mask = Bernoulli(gradient.new_full(size=gradien.size(), fill_value=p_F))
gradient_mask = gradient_mask.sample() / p_F # 除以p_F是为了保证梯度的期望不变
print(gradient_mask)

gradient *= gradient_mask
print(gradient)

Bernoulli是一个类,生成的gradient_mask是一个对象,我们需要调用这个对象的sample()方法才能得到一个矩阵。其中比较重要的一点是虽然我们得到了0-1 MASK,但我们需要将这个MASK内所有的1扩大 1 / p F 1/p_F 1/pF倍以维持梯度的期望值

别的梯度都不在了,活着的梯度要带着其他人的意志坚强的反向传播下去啊!

Child_Tuning_D

考虑到存在不同的下游任务,作者提出一种与具体任务相关的算法Child_Tuning_D,它可以检测出对目标任务最重要的子网络(或者参数)。具体来说,作者采用Fisher信息估计法来寻找与特定下游任务高度相关的参数。形式上,模型参数 w \mathbf{w} w的Fisher Information Matrix(FIM)定义如下:
F ( w ) = E [ ( ∂ log ⁡ p ( y ∣ x ; w ) ∂ w ) ( ∂ log ⁡ p ( y ∣ x ; w ) ∂ w ) ⊤ ] (4) \mathbf{F}(\mathbf{w})=\mathbb{E}\left[\left(\frac{\partial \log p(y \mid \mathbf{x} ; \mathbf{w})}{\partial \mathbf{w}}\right)\left(\frac{\partial \log p(y \mid \mathbf{x} ; \mathbf{w})}{\partial \mathbf{w}}\right)^{\top}\right]\tag{4} F(w)=E[(wlogp(yx;w))(wlogp(yx;w))](4)
其中, x , y x,y x,y分别是输入和输出,由此我们可以推出第 i i i个参数的Fisher信息如下:
F ( i ) ( w ) = 1 ∣ D ∣ ∑ j = 1 ∣ D ∣ ( ∂ log ⁡ p ( y j ∣ x j ; w ) ∂ w ( i ) ) 2 (5) \mathbf{F}^{(i)}(\mathbf{w})=\frac{1}{|D|} \sum_{j=1}^{|D|}\left(\frac{\partial \log p\left(y_{j} \mid \mathbf{x}_{j} ; \mathbf{w}\right)}{\partial \mathbf{w}^{(i)}}\right)^{2}\tag{5} F(i)(w)=D1j=1D(w(i)logp(yjxj;w))2(5)
其中, ∣ D ∣ |D| D是所有样本的数量。作者认为,参数对目标任务越重要,其Fisher信息越大,因此Child Tuning是由Fisher信息最高的那些参数组成,此时Child Network的比例为
p D = ∣ C ∣ ∣ C ∣ + ∣ C ˉ ∣ ∈ ( 0 , 1 ] (6) p_D = \frac{\mathcal{\mid C\mid}}{\mid \mathcal{C} \mid + \mid \bar{\mathcal{C}}\mid} \in (0,1]\tag{6} pD=C+CˉC(0,1](6)
其中$| \bar{\mathcal{C}}| 表 示 非 子 网 络 , 当 表示非子网络,当 p_D=1$时,Child Tuning就退化为了Fine Tuning。实际上Fisher信息的计算是相当耗时的,如果我们每次反向传播后都去计算一次所有参数的Fisher信息,然后找出最大的前几个是很麻烦的,因此作者提出在真正开始训练之前,我们先对所有样本进行一次完整(一个Epoch)的前向传播和反向传播,此时计算出Fisher信息最高的那些参数,以及此时确定的Child Network以后就不再变化了,就以这一次所选定的为准

下面给出计算Fisher信息的代码

def calculate_fisher():
    gradient_mask, p_F = {}, 0.2
    train_loader = torch.utils.data.DataLoader(train_dataset, batch_size, shuffle=True)
    N = len(train_dataloader) # N = |D|
    for name, params in model.named_parameters():
        if 'layer' in name:
            gradient_mask[params] = params.new_zeros(params.size())
    for batch in train_loader:
        outpus = model(**batch)
        loss = outpus['loss'] if isinstance(outpus, dict) else outputs[0]
        loss.backward()

        for name, params in model.named_parameters():
            if 'layer' in name:
                torch.nn.utils.clip_grad_norm(params, 1)
                gradient_mask[params] += (params.grad ** 2) / N
        model.zero_grad()
    
    r = None
    for k, v in gradient_mask.items():
        v = v.view(-1).cpu().numpy() # flatten
        if r is None:
            r = v
        else:
            r = np.append(r, v)
    
    # polar = np.percentile(a, q) # a中有q%的元素小于polar
    polar = np.percentile(r, (1-p_F)*100)
    for k in gradient_mask:
        gradient_mask[k] = gradient_mask[k] >= polar
    print('Polar => {}'.format(polar))

    return gradient_mask

Proof

如果这篇论文就讲了这些东西,很大概率是中不了EMNLP的,之所以被录用了,我个人觉得和这篇论文里大量的证明有关,作者证明了使用Child Tuning可以帮助模型逃离局部极小值点,接下来我尝试着把论文中的证明部分说清楚

首先我们假设 g ( i ) \mathbf{g}^{(i)} g(i)是给定样本 x ( i ) \mathbf{x}^{(i)} x(i)时参数 w \mathbf{w} w的梯度,并且它服从正态分布 g ( i ) ∼ N ( ∂ L ∂ w , σ g 2 I k ) \mathbf{g}^{(i)}\sim N(\frac{\partial \mathcal{L}}{\partial \mathbf{w}}, \sigma^2_\mathbf{g}\mathbf{I}_k) g(i)N(wL,σg2Ik),定义 g = ∑ i = 1 ∣ B ∣ g ( i ) ∣ B ∣ \mathbf{g}=\sum\limits_{i=1}^{|\mathcal{B}|}\frac{\mathbf{g}^{(i)}}{|\mathcal{B}|} g=i=1BBg(i),则有
Δ w = − η ∑ i = 1 ∣ B ∣ g ( i ) ∣ B ∣ ⊙ M = − η g ⊙ M (7) \Delta \mathbf{w} =-\eta \sum\limits_{i=1}^{|\mathcal{B}|}\frac{\mathbf{g}^{(i)}}{|\mathcal{B}|}\odot M = -\eta \mathbf{g}\odot M\tag{7} Δw=ηi=1BBg(i)M=ηgM(7)
对于 g \mathbf{g} g,我们有
E [ g ] = ∂ L ∂ w , Σ [ g ] = σ g 2 I k ∣ B ∣ (8) \mathbb{E}[\mathbf{g}]=\frac{\partial \mathcal{L}}{\partial \mathbf{w}}, \Sigma[\mathbf{g}]=\frac{\sigma^2_{\mathbf{g}}\mathbf{I}_k}{|\mathcal{B}|}\tag{8} E[g]=wL,Σ[g]=Bσg2Ik(8)
g ^ = g p ⊙ M \hat{\mathbf{g}} = \frac{\mathbf{g}}{p}\odot M g^=pgM,其中 p p p p D p_D pD p F p_F pF(看你用的哪种算法),则
E [ g ^ ] = E [ 1 p g ⊙ M ] = 1 p E [ g ⊙ M ] = p p E [ g ] = ∂ L ∂ w (9) \begin{aligned} \mathbb{E}[\hat{\mathbf{g}}] &= \mathbb{E}[\frac{1}{p}{\mathbf{g}}\odot M]\\ &= \frac{1}{p}\mathbb{E}[\mathbf{g}\odot M]\\ &=\frac{p}{p}\mathbb{E}[\mathbf{g}]\\ &= \frac{\partial \mathcal{L}}{\partial \mathbf{w}} \end{aligned}\tag{9} E[g^]=E[p1gM]=p1E[gM]=ppE[g]=wL(9)
上面的公式推导其实并不严格,例如分子的 p p p是从哪来的就没法解释,分子的 p p p只有可能是 E [ M ] \mathbb{E}[M] E[M]的结果,可是 M M M是个矩阵,矩阵的期望怎么就变成一个数了呢?但要强行解释也可以,因为将 M M M中所有的1加起来除以 M M M内的所有元素似乎也是等于 p p p

g i ^ , g i \hat{g_i}, g_i gi^,gi分别是 g ^ , g \hat{\mathbf{g}}, \mathbf{g} g^,g i i i维度上的值,那么有 g i ^ = g i p ⊙ M i \hat{g_i} = \frac{g_i}{p}\odot M_i gi^=pgiMi
D [ g i ^ ] = E [ g i ^ 2 ] − ( E [ g i ^ ] ) 2 = p E [ ( g i p ) 2 ] − ( E [ g i ^ ] ) 2 = E [ g i 2 ] p − ( E [ g i ^ ] ) 2 = ( E [ g i ] ) 2 + D [ g i ] p − ( E [ g i ^ ] ) 2 = ( E [ g i ] ) 2 + D [ g i ] p − ( E [ g i p ⊙ M i ] ) 2 = ( E [ g i ] ) 2 + D [ g i ] p − ( E [ g i ] ) 2 = D [ g i ] p + ( 1 − p ) ( E [ g i ^ ] ) 2 p (10) \begin{aligned} \mathbf{D}[\hat{g_i}] &= \mathbb{E}[\hat{g_i}^2] - (\mathbb{E}[\hat{g_i}])^2\\ &=p\mathbb{E}[(\frac{g_i}{p})^2] - (\mathbb{E}[\hat{g_i}])^2\\ &=\frac{\mathbb{E}[g_i^2]}{p} - (\mathbb{E}[\hat{g_i}])^2\\ &=\frac{(\mathbb{E}[g_i])^2 + \mathbf{D}[g_i]}{p} - (\mathbb{E}[\hat{g_i}])^2\\ &=\frac{(\mathbb{E}[g_i])^2 + \mathbf{D}[g_i]}{p} - (\mathbb{E}[\frac{g_i}{p}\odot M_i])^2\\ &=\frac{(\mathbb{E}[g_i])^2 + \mathbf{D}[g_i]}{p} - (\mathbb{E}[{g_i}])^2\\ &=\frac{\mathbf{D}[g_i]}{p} + \frac{(1-p)(\mathbb{E}[\hat{g_i}])^2}{p} \end{aligned}\tag{10} D[gi^]=E[gi^2](E[gi^])2=pE[(pgi)2](E[gi^])2=pE[gi2](E[gi^])2=p(E[gi])2+D[gi](E[gi^])2=p(E[gi])2+D[gi](E[pgiMi])2=p(E[gi])2+D[gi](E[gi])2=pD[gi]+p(1p)(E[gi^])2(10)
因此
Σ [ g ^ ] = Σ [ g ] p + ( 1 − p ) diag { E [ g ] } 2 p = σ g 2 I k p ∣ B ∣ + ( 1 − p ) diag { E [ g ] } 2 p (11) \begin{aligned} \Sigma[\hat{\mathbf{g}}] &= \frac{\Sigma[\mathbf{g}]}{p} + \frac{(1-p)\text{diag}\{\mathbb{E}[\mathbf{g}]\}^2}{p}\\ &=\frac{\sigma^2_{\mathbf{g}}\mathbf{I}_k}{p|\mathcal{B}|} + \frac{(1-p)\text{diag}\{\mathbb{E}[\mathbf{g}]\}^2}{p} \end{aligned}\tag{11} Σ[g^]=pΣ[g]+p(1p)diag{E[g]}2=pBσg2Ik+p(1p)diag{E[g]}2(11)
最终我们就得到
E [ Δ w ] = − η ∂ L ∂ w Σ [ Δ w ] = η 2 σ g 2 I k p ∣ B ∣ + ( 1 − p ) η 2 diag ⁡ { ∂ L ∂ w } 2 p (12) \begin{aligned} \mathbb{E}[\boldsymbol{\Delta} \mathbf{w}] &=-\eta \frac{\partial \mathcal{L}}{\partial \mathbf{w}} \\ \Sigma[\boldsymbol{\Delta} \mathbf{w}] &=\frac{\eta^{2} \sigma_{\mathbf{g}}^{2} \mathbf{I}_{k}}{p|\mathcal{B}|}+\frac{(1-p) \eta^{2} \operatorname{diag}\left\{\frac{\partial \mathcal{L}}{\partial \mathbf{w}}\right\}^{2}}{p} \end{aligned}\tag{12} E[Δw]Σ[Δw]=ηwL=pBη2σg2Ik+p(1p)η2diag{wL}2(12)
特别地,当参数 w \mathbf{w} w训练到局部极小值点时, ∂ L ∂ w = 0 \frac{\partial{\mathcal{L}}}{\partial \mathbf{w}}=0 wL=0,此时 E [ Δ w ] = 0 , Σ [ Δ w ] = η 2 σ g 2 I k p ∣ B ∣ \mathbb{E}[\Delta \mathbf{w}]=0, \Sigma[\Delta \mathbf{w}] = \frac{\eta^{2} \sigma_{\mathbf{g}}^{2} \mathbf{I}_{k}}{p|\mathcal{B}|} E[Δw]=0,Σ[Δw]=pBη2σg2Ik,我们注意到 Σ [ Δ w ] \Sigma[\Delta \mathbf{w}] Σ[Δw]是关于 p p p的一个递减函数, p p p越大, Σ [ Δ w ] \Sigma[\Delta \mathbf{w}] Σ[Δw]越小,极端情况是 p = 1 p=1 p=1,此时Child Tuning退化为Fine Tuning,并且 Σ [ Δ w ] \Sigma[\Delta \mathbf{w}] Σ[Δw]最小,相当于它的变化量每次都不大,因此就很难跳出局部极小值点; p p p越小, Σ [ Δ w ] \Sigma[\Delta \mathbf{w}] Σ[Δw]越大,相当于它的变化量每次都很大,因此比较容易跳出局部极小值点

个人总结

这篇论文刚读的时候觉得很厉害,但了解之后就觉得这其实就是一个反向传播版的Dropout,实际的创新并没有特别大,包括其中提到的Fisher信息也并不是这篇论文提出来的。再就是论文中的实验确实很多,实验结果表明,相比于Fine Tuning大约可以提升1.5~8.6个点不等。最后要说一下这篇论文的公式证明部分,我个人觉得这篇论文的证明其实没有很严谨,例如为什么一个矩阵的期望就变成一个数了。总的来说这个方法可以作为打比赛时候的一个Trick来使用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/10804.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

0-1背包问题

在将什么是0-1背包问题前,先来看下面一道例题: 题意概要:有 n 个物品和一个容量为 W 的背包,每个物品有重量w i和价值v i两种属性,要求 选若干物品放入背包使背包中物品的总价值最大且背包中物品的总重量不超过背包的容…

京东一小伙一年输出20篇专利,其实你也可以

前言: ☆ 本文属于技术总结类干货分享,是实战但又不同于实战,所以不能保证每位同学读后都可以立马自己也输出一篇合格的专利; ☆ 但通过本文的总结分享,已经帮身边同学半年内输出大于100篇专利,所以如果你细…

【字母识别】基于matlab BP神经网络英文字母识别【含Matlab源码 2226期】

⛄一、BP神经网络英文字母识别 1 典型前向网络——BP神经网络 前向网络是目前研究最多的网络形式之一, 它包含输入层、隐层以及输出层, 其中隐层可以为一层或者多层 , 其结构如图1所示. 图1 BP神经网络模型 BP神经网络误差反向传播学习算法的基本思想如下:向网络提供训练例子…

智慧公路筑基者!天翼云打造全栈能力新底座

11月9日-11日,在第十七届中国智能交通年会(ITSAC 2022)暨2022中国智能交通大会上,中国电信作为本届大会特别支持单位,于11月10日成功举办了主题为“构建智慧公路全栈能力新底座”的运营商赋能智慧交通创新论坛。 交通运…

windows 安装ElasticSearch(es)可视化工具

因项目需要,小编这里使用的是 npm版本 6.14.16 nodejs版本14.19.1 1、下载nodejs地址:https://nodejs.org/download/release/v14.19.1/ 版本需要可根据自己电脑进行选择 2、下载可视化项目包 下载地址:https://github.com/mobz/elasticse…

2020年聚合支付评级结果及如何开展评级工作经验分享

一年一度的收单外包服务机构评级工作即将启动,笔者认为479家聚合支付机构也在关心本机构要不要进行评级并希望了解聚合支付评级要求、评级对机构有何意义和影响、目前聚合支付评级情况及如何开展评级工作。为此,基于笔者最近作为两家聚合支付机构常年顾问…

传奇脚本中提到的WIL序号是什么?在哪查看WIL序号?

传奇M2引擎设置WIL序号方便脚本<IMG:12:2>代码调用,在NPC对话界面显示图片信息。 传奇补丁文件WIL序号设置方法&#xff1a; 传奇M2-查看-列表信息二 很多脚本命令和功能都会使用这个WIL序号。 WIL序号的计算是从0开始的,例如下图中从0开始数 MonEffect.wzl的WIL文件序号…

专肽生物:蛋白激酶C底物 Protein Kinase C Substrate

蛋白激酶 C (PKC) 底物。编号: 161721 中文名称: 蛋白激酶C底物 Protein Kinase C Substrate CAS号: 105802-82-2 单字母: H2N-VRKRTLRRL-OH 三字母: H2N-Val-Arg-Lys-Arg-Thr-Leu-Arg-Arg-Leu-COOH 氨基酸个数: 9 分子式: C51H100N22O11 平均分子量: 1197.48 精确分子量: 1196…

北科天绘 16线3维激光雷达开发教程

文章目录前言一、配置IP地址二、ROS Driver1.创建工作空间并初始化2.启动雷达驱动程序三、 RVIZ 显示 R-Fans 点云数据前言 本教程使用的是三维激光雷达为北科天绘的R-Fans-16,采用网口连接传输数据&#xff0c;9-36V供电。 Ubuntu版本为20.04&#xff0c;Ros版本为Neotic。 !…

【长难句分析精讲】定语从句

1. 定语从句知识总结 1.基本概念&#xff1a; 先行词、关系词、不完整的句子2.先行词的形式&#xff1a; 名词、代词、名词短语、句子3.关系词的秘密 关系代词&#xff1a; 在从句中充当主(who, which, that, whom)、宾(which, that)、定语(whose)&#xff09;关系副词 &#…

送别金铁霖,被谷传民起诉,农民歌唱家大衣哥人品高下立判

最近一段时间&#xff0c;因为被著名作家兼编剧谷传民告上法庭&#xff0c;农民歌唱家大衣哥一夜之间人设崩塌。有人说大衣哥不讲武德&#xff0c;无偿使用别人的音乐&#xff0c;赚钱后又不支付版权费&#xff0c;农民歌唱家的人品真不咋样。 面对互联网铺天盖地的流言蜚语&am…

高斯判别分析(GDA)公式推导

解&#xff1a;将概率分布代入对数似然函数&#xff0c; l(ψ,μ0,μ1,∑)∑i1mlogpX∣Y(x(i)∣y(i);μ0,μ1,∑)∑i1mlogpY(y(i);ψ)l(\psi,\mu_0,\mu_1,\sum)\sum^m_{i1}{log{p_{X|Y}(x^{(i)}|y^{(i)};\mu_0,\mu_1,\sum)}}\sum^m_{i1}log{p_Y}(y^{(i)};\psi)l(ψ,μ0​,μ1​…

mbedtls 自带SSL demo调试

概述&#xff1a; 运行mbedtls自带 ssl demo的记录&#xff1b; 操作过程&#xff1a; 编译Demo&#xff0c;请看我专栏中的相关文章 先运行服务端程序&#xff0c;运行ssl_server.exe&#xff0c;运行结果如下&#xff1a; mbedtls-3.2.1\mbedtls-3.2.1\programs\ssl> .…

通用后台管理系统前端界面

1、项目搭建 局部安装vue-cli 4.5.15 和创建项目 1.1 局部安装vue-cli 工具&#xff0c;方便不同版本进行切换 ###安装指定版本的vue脚手架工具 或者是已安装了&#xff0c;该命令则为使用4.5.15版本的vue/cli npm i -D vue/cli4.5.15 ###查看当前vue脚手架工具版本…

第七节.常用Linux命令—查找文件,软硬链接,软件安装,系统信息

第七节.常用Linux命令—查找文件&#xff0c;软硬链接&#xff0c;软件安装&#xff0c;系统信息 1.查找文件&#xff1a; 序号命令作用01find [路径] -name “.py”查找指定路径下扩展名是.py的文件&#xff0c;包括子目录 功能&#xff1a;通常用来在特定目录下搜索符合条件…

SpringMVC之全局异常管理

在开发过程中一个项目可以要抛出很多很多的异常&#xff0c;这对于用户来说非常地不方便&#xff0c;而且非常地不安全&#xff0c;特别容易导致用户信息地泄露。在SpringMVC中有一种全局异常管理方法&#xff0c;这种方法收集项目中存在所有地异常&#xff0c;以保证项目正常地…

windows 定制 terminal 上手实践

文章目录1. 前言2. 安装 Windows Terminal3. 安装 nerd-fonts4. Microsoft store 安装 powershell5. 改变终端背景颜色6. 安装 scoop7. 安装 git8. 安装 Neovim9. 设置别名10. 安装 oh My Posh11. 自定义 prompt&#xff08;path&#xff09;12. 安装 nodejs13. 安装 Terminal …

数据库高级 I

数据库高级 I 双向链表 什么是双向链表 双向链表是一种数据结构,由若干个节点构成,其中每个节点均由三部分构成,分别是前驱节点,元素,后继节点.双向链表中的节点在内存中是游离状态存在的.双向链表的应用:LinkedList 双向链表中的元素部分保存的都是对象,实际上保存的是元素对…

Tomcat 源码解析一请求处理的整体过程-黄泉天怒(下)

上一篇博客 Tomcat 源码解析一请求处理的整体过程-黄泉天怒(上) NonLoginAuthenticator NonLoginAuthenticator并没有实现invoke()方法&#xff0c;而是由父类AuthenticatorBase实现了invoke()方法&#xff0c;AuthenticatorBase类关系如下。   先弄清楚NonLoginAuthentica…

07.URL调度器工作原理

1.工作原理 django通过urlconf来映射视图函数&#xff0c;只区分路径&#xff0c;不区分http方法 Django确定要使用的根URLconf模块&#xff0c;一般实在settings中的ROOT_URLCONF设置的值&#xff0c;但是如果传入HttpRequest对象具有一个urlconf属性&#xff08;由中间件设置…