【大模型实战篇】RoPE旋转位置编码PyTorch代码分析

news2024/11/13 9:40:36

1. 背景介绍   

         之前我们通过两篇技术文章《LLaMA3结构关键模块分析》和《RoPE旋转位置编码底层数学原理分析》对旋转位置编码RoPE的原理进行了必要的讲解。接下来,我们将针对来自rotary-embedding-torch【1】开源库的实现,对RoPE的PyTorch代码实现进行分析,主要对关键代码进行讲解,帮助自己更好理解相应的实现原理。该项目除了实现常规的旋转位置编码【2】,另外还支持轴向旋转嵌入、长度可外推的旋转嵌入【3】、插值序列位置【4】。其中【3】通过给旋转位置编码(rotary embeddings)添加类似于ALiBi的衰减机制,解决了长度外推问题,该技术命名为XPos。【4】通过在插值后的序列位置上进行微调,以便将预训练模型扩展到更长的上下文长度。

2. torch代码实现

        以下是具体的代码实现和用法。

rotary_embedding_torch.py

from __future__ import annotations
from math import pi, log

import torch
from torch.nn import Module, ModuleList
from torch.cuda.amp import autocast
from torch import nn, einsum, broadcast_tensors, Tensor

from einops import rearrange, repeat

from typing import Literal


# 辅助函数

def exists(val):
    return val is not None


def default(val, d):
    return val if exists(val) else d


# 广播张量并沿给定维度连接

def broadcat(tensors, dim=-1):
    broadcasted_tensors = broadcast_tensors(*tensors)
    return torch.cat(broadcasted_tensors, dim=dim)


# 旋转位置编码辅助函数

def rotate_half(x):
    x = rearrange(x, '... (d r) -> ... d r', r=2)
    x1, x2 = x.unbind(dim=-1)
    x = torch.stack((-x2, x1), dim=-1)
    return rearrange(x, '... d r -> ... (d r)')


@autocast(enabled=False)
def apply_rotary_emb(freqs, t, start_index=0, scale=1., seq_dim=-2):
    dtype = t.dtype

    if t.ndim == 3:
        seq_len = t.shape[seq_dim]
        freqs = freqs[-seq_len:]

    rot_dim = freqs.shape[-1]
    end_index = start_index + rot_dim

    assert rot_dim <= t.shape[
        -1], f'feature dimension {t.shape[-1]} is not of sufficient size to rotate in all the positions {rot_dim}'

    # 将t分为三部分:左、中(要变换的部分)和右
    t_left = t[..., :start_index]
    t_middle = t[..., start_index:end_index]
    t_right = t[..., end_index:]

    # 应用旋转嵌入
    t_transformed = (t_middle * freqs.cos() * scale) + (rotate_half(t_middle) * freqs.sin() * scale)

    out = torch.cat((t_left, t_transformed, t_right), dim=-1)

    return out.type(dtype)


# 学习旋转辅助函数

def apply_learned_rotations(rotations, t, start_index=0, freq_ranges=None):
    if exists(freq_ranges):
        rotations = einsum('..., f -> ... f', rotations, freq_ranges)
        rotations = rearrange(rotations, '... r f -> ... (r f)')

    rotations = repeat(rotations, '... n -> ... (n r)', r=2)
    return apply_rotary_emb(rotations, t, start_index=start_index)


# 旋转嵌入类

class RotaryEmbedding(Module):
    def __init__(
            self,
            dim,
            custom_freqs: Tensor | None = None,
            freqs_for: Literal['lang', 'pixel', 'constant'] = 'lang',
            theta=10000,
            max_freq=10,
            num_freqs=1,
            learned_freq=False,
            use_xpos=False,
            xpos_scale_base=512,
            interpolate_factor=1.,
            theta_rescale_factor=1.,
            seq_before_head_dim=False,
            cache_if_possible=True
    ):
        super().__init__()
        # 来自Reddit用户bloc97的建议,重新调整旋转嵌入以适应更长的序列长度,无需微调
        # 与NTK文献有一定联系
        # https://www.reddit.com/r/LocalLLaMA/comments/14lz7j5/ntkaware_scaled_rope_allows_llama_models_to_have/


        theta *= theta_rescale_factor ** (dim / (dim - 2))

        self.freqs_for = freqs_for

        if exists(custom_freqs):
            freqs = custom_freqs
        elif freqs_for == 'lang':
            freqs = 1. / (theta ** (torch.arange(0, dim, 2)[:(dim // 2)].float() / dim))
        elif freqs_for == 'pixel':
            freqs = torch.linspace(1., max_freq / 2, dim // 2) * pi
        elif freqs_for == 'constant':
            freqs = torch.ones(num_freqs).float()

        self.cache_if_possible = cache_if_possible

        self.tmp_store('cached_freqs', None)
        self.tmp_store('cached_scales', None)

        self.freqs = nn.Parameter(freqs, requires_grad=learned_freq)

        self.learned_freq = learned_freq

        # 设备占位符

        self.tmp_store('dummy', torch.tensor(0))

        # 默认序列维度

        self.seq_before_head_dim = seq_before_head_dim
        self.default_seq_dim = -3 if seq_before_head_dim else -2

        # 插值因子

        assert interpolate_factor >= 1.
        self.interpolate_factor = interpolate_factor

        # xpos 相关设置

        self.use_xpos = use_xpos
        if not use_xpos:
            self.tmp_store('scale', None)
            return

        scale = (torch.arange(0, dim, 2) + 0.4 * dim) / (1.4 * dim)
        self.scale_base = xpos_scale_base
        self.tmp_store('scale', scale)

        # 添加apply_rotary_emb作为静态方法
        self.apply_rotary_emb = staticmethod(apply_rotary_emb)

    @property
    def device(self):
        return self.dummy.device

    def tmp_store(self, key, value):
        self.register_buffer(key, value, persistent=False)

    def get_seq_pos(self, seq_len, device, dtype, offset=0):
        return (torch.arange(seq_len, device=device, dtype=dtype) + offset) / self.interpolate_factor

    def rotate_queries_or_keys(self, t, seq_dim=None, offset=0, scale=None):
        seq_dim = default(seq_dim, self.default_seq_dim)

        assert not self.use_xpos or exists(
            scale), 'you must use `.rotate_queries_and_keys` method instead and pass in both queries and keys, for length extrapolatable rotary embeddings'

        device, dtype, seq_len = t.device, t.dtype, t.shape[seq_dim]

        seq = self.get_seq_pos(seq_len, device=device, dtype=dtype, offset=offset)

        freqs = self.forward(seq, seq_len=seq_len, offset=offset)

        if seq_dim == -3:
            freqs = rearrange(freqs, 'n d -> n 1 d')

        return apply_rotary_emb(freqs, t, scale=default(scale, 1.), seq_dim=seq_dim)

    def rotate_queries_with_cached_keys(self, q, k, seq_dim=None, offset=0):
        dtype, device, seq_dim = q.dtype, q.device, default(seq_dim, self.default_seq_dim)

        q_len, k_len = q.shape[seq_dim], k.shape[seq_dim]
        assert q_len <= k_len

        q_scale = k_scale = 1.

        if self.use_xpos:
            seq = self.get_seq_pos(k_len, dtype=dtype, device=device)

            q_scale = self.get_scale(seq[-q_len:]).type(dtype)
            k_scale = self.get_scale(seq).type(dtype)

        rotated_q = self.rotate_queries_or_keys(q, seq_dim=seq_dim, scale=q_scale, offset=k_len - q_len + offset)
        rotated_k = self.rotate_queries_or_keys(k, seq_dim=seq_dim, scale=k_scale ** -1)

        rotated_q = rotated_q.type(q.dtype)
        rotated_k = rotated_k.type(k.dtype)

        return rotated_q, rotated_k

    def rotate_queries_and_keys(self, q, k, seq_dim=None):
        seq_dim = default(seq_dim, self.default_seq_dim)

        assert self.use_xpos
        device, dtype, seq_len = q.device, q.dtype, q.shape[seq_dim]

        seq = self.get_seq_pos(seq_len, dtype=dtype, device=device)

        freqs = self.forward(seq, seq_len=seq_len)
        scale = self.get_scale(seq, seq_len=seq_len).to(dtype)

        if seq_dim == -3:
            freqs = rearrange(freqs, 'n d -> n 1 d')
            scale = rearrange(scale, 'n d -> n 1 d')

        rotated_q = apply_rotary_emb(freqs, q, scale=scale, seq_dim=seq_dim)
        rotated_k = apply_rotary_emb(freqs, k, scale=scale ** -1, seq_dim=seq_dim)

        rotated_q = rotated_q.type(q.dtype)
        rotated_k = rotated_k.type(k.dtype)

        return rotated_q, rotated_k

    def get_scale(
            self,
            t: Tensor,
            seq_len: int | None = None,
            offset=0
    ):
        assert self.use_xpos

        should_cache = (
                self.cache_if_possible and
                exists(seq_len)
        )

        if (
                should_cache and \
                exists(self.cached_scales) and \
                (seq_len + offset) <= self.cached_scales.shape[0]
        ):
            return self.cached_scales[offset:(offset + seq_len)]

        scale = 1.
        if self.use_xpos:
            power = (t - len(t) // 2) / self.scale_base
            scale = self.scale ** rearrange(power, 'n -> n 1')
            scale = torch.cat((scale, scale), dim=-1)

        if should_cache:
            self.tmp_store('cached_scales', scale)

        return scale

    def get_axial_freqs(self, *dims):
        Colon = slice(None)
        all_freqs = []

        for ind, dim in enumerate(dims):
            if self.freqs_for == 'pixel':
                pos = torch.linspace(-1, 1, steps=dim, device=self.device)
            else:
                pos = torch.arange(dim, device=self.device)

            freqs = self.forward(pos, seq_len=dim)

            all_axis = [None] * len(dims)
            all_axis[ind] = Colon

            new_axis_slice = (Ellipsis, *all_axis, Colon)
            all_freqs.append(freqs[new_axis_slice])

        all_freqs = broadcast_tensors(*all_freqs)
        return torch.cat(all_freqs, dim=-1)

    @autocast(enabled=False)
    def forward(
            self,
            t: Tensor,
            seq_len=None,
            offset=0
    ):
        should_cache = (
                self.cache_if_possible and \
                not self.learned_freq and \
                exists(seq_len) and \
                self.freqs_for != 'pixel'
        )

        if (
                should_cache and \
                exists(self.cached_freqs) and \
                (offset + seq_len) <= self.cached_freqs.shape[0]
        ):
            return self.cached_freqs[offset:(offset + seq_len)].detach()

        freqs = self.freqs

        freqs = einsum('..., f -> ... f', t.type(freqs.dtype), freqs)
        freqs = repeat(freqs, '... n -> ... (n r)', r=2)

        if should_cache:
            self.tmp_store('cached_freqs', freqs.detach())

        return freqs

rope_test.py

import torch
from rotary_embedding_torch import RotaryEmbedding

# 初始化旋转位置嵌入类实例,指定特征维度为32
rotary_emb = RotaryEmbedding(dim=32)

# 模拟查询(queries)和键(keys)张量
# 张量的最后两个维度应该是序列长度(seq_len)和特征维度(feature dimension)
q = torch.randn(1, 8, 1024, 64)  # 查询张量,形状为 (batch, heads, seq len, dimension of head)
k = torch.randn(1, 8, 1024, 64)  # 键张量,形状相同

print("初始查询张量 q:", q)
print("初始键张量 k:", k)

# 将旋转位置编码应用于查询和键
# 在注意力头部分离后,但在点积和后续softmax(注意力机制)之前进行
q_rope = rotary_emb.rotate_queries_or_keys(q)
k_rope = rotary_emb.rotate_queries_or_keys(k)

print("应用旋转位置编码后的查询张量 q_rope:", q_rope)
print("应用旋转位置编码后的键张量 k_rope:", k_rope)

3. 关键代码分析

        代码rotary_embedding_torch.py有点长,但我们可以重点关注以下几个部分:

3.1 旋转角度计算

        旋转角度决定了频率。或者说旋转位置编码中的频率用于定义位置编码的旋转角度。频率通常是由一种函数生成的,并且决定了位置编码如何在不同位置之间变化。在旋转位置编码中,频率通常与模型的维度和序列长度相关。频率的选择会影响旋转的位置编码如何在不同位置之间变化。为了处理更长的序列或优化模型性能,可能会使用动态频率调整技术,例如XPos。这些技术会根据当前处理的序列长度动态调整频率,从而优化模型的表现。

        源码中给出了多种频率计算方式:

if exists(custom_freqs):
    freqs = custom_freqs
elif freqs_for == 'lang':
    freqs = 1. / (theta ** (torch.arange(0, dim, 2)[:(dim // 2)].float() / dim))
elif freqs_for == 'pixel':
    freqs = torch.linspace(1., max_freq / 2, dim // 2) * pi
elif freqs_for == 'constant':
    freqs = torch.ones(num_freqs).float()

看下freqs_for == 'lang',其实现基本和原论文【2】保持一致:

\theta _j = 10000^{-2(j-1)/d},j \in [1, 2, ..., d/2]

以d=32为例, torch.arange的输出为:

tensor([ 0.,  2.,  4.,  6.,  8., 10., 12., 14., 16., 18., 20., 22., 24., 26.,28., 30.])

与预期输出保持一致。

3.2 向量旋转

3.2.1 实现分析

        首先还是回顾原论文中给出的旋转矩阵的高效实现方法:

 这个实现方法,涉及到两部分:

(1) 给定向量[x1, x2, x3, x4, ..., x_{d-1}, x_d], 通过旋转得到新的序列[-x_2, x_1, -x_4, x_3, ..., -x_{d}, x_{d-1}]

(2)给定向量[\cos m\theta _1, \cos m\theta _2, ..., \cos m\theta _{d/2}], 扩展成[\cos m\theta _1,\cos m\theta _1, \cos m\theta _2, \cos m\theta _2, ..., \cos m\theta _{d/2}, \cos m\theta _{d/2}], 同理对于sin部分也需要做类似翻倍扩展。

3.2.2 针对向量旋转

接下来我们来看看代码如何实现:

def rotate_half(x):
    x = rearrange(x, '... (d r) -> ... d r', r=2)
    x1, x2 = x.unbind(dim=-1)
    x = torch.stack((-x2, x1), dim=-1)
    return rearrange(x, '... d r -> ... (d r)')
  • rearrangeeinops 库中的一个函数,用于灵活地重塑、重排和转置张量。它的用法是通过指定模式来表达如何重新排列张量的形状。
  • 输入x 是一个张量,其最后一个维度的大小必须是偶数(因为我们需要拆分成两个相等的部分)。
  • 模式 '... (d r) -> ... d r' 表示将张量 x 的最后一个维度(即 (d r) 部分)拆分为两个独立的维度 dr,其中 r=2
  • ... 表示保持前面的所有维度不变。
  • 假设原始张量 x 的形状为 [..., 2 * n],在重排后,它的形状将变为 [..., n, 2],即最后一个维度被拆分为大小为 n2 的两个新维度。
  • unbind 函数沿着指定的维度(这里是 dim=-1,即最后一个维度)将张量分解为多个张量。由于前面重排后的张量 x 的最后一个维度是大小为 2x.unbind(dim=-1) 将张量 x 沿最后一个维度拆分成两个张量。
  • 输入 (-x2, x1) 是两个张量的元组,-x2 是对 x2 中的每个元素取负。
  • torch.stack 沿着最后一个新维度(dim=-1)将两个张量堆叠,形成一个新张量 x,其形状为 [..., n, 2]
  • 结果是将前半部分(x1)和旋转后的后半部分(-x2)拼接在一起。

举个数值示例,假设对x = torch.tensor([1, 2, 3, 4]) 处理,最后rotary输出的结果为:[-2, 1, -4, 3],符合我们的预期。

3.2.2 针对向量翻倍扩展

        使用einops的repeat方法能够快速实现

freqs = repeat(freqs, '... n -> ... (n r)', r=2)

举个数值示例,假设freqs = torch.tensor([1,2,3,4]), 输出为tensor([1, 1, 2, 2, 3, 3, 4, 4])。

3.3 缩放因子

        源代码中实现了根据序列输入的长度,动态调整缩放因子。目的是优化模型在处理长序列时的性能,核心思想是动态调整旋转位置编码中的旋转角度。动态调整位置编码,能够根据当前输入的序列长度进行动态调整,使得位置编码适应不同长度的输入。

        有的处理方式是通过调整底数来适应不同长度的序列【5】。先来理解一下这种模式:

位置编码的频率计算:RoPE 中的频率通常是根据以下公式计算的:

\text{freqs} = \frac{1}{\text{base}^{\frac{2i}{d}}}

其中,i 是维度索引,d 是总的维度,base 是一个常数。

底数 base 的作用:当 base 增大时,freqs 中的频率将减少,角度的旋转变化会变得更缓慢;反之,base 减小时,freqs 中的频率增加,旋转角度的变化变得更快。底数控制了位置编码变化的快慢。

当输入序列长度变得更长时,使用固定的频率(或者说固定的 base)可能不够灵活。动态调整 base,可以让模型适应长序列带来的挑战。

短序列:当序列较短时,位置编码频率需要相对高一些,以便更精细地捕捉相对位置信息。此时,较小的 base 适合,因为它能提供更高的频率变化。

长序列:当序列变长时,使用同样高的频率变化可能导致模型的表示能力不足,因为它对更远距离的位置信息缺乏适应能力。此时,需要较大的 base,以减缓频率变化,让模型在更长的范围内有效利用位置信息。

因此,通过动态调整 base,我们可以使得频率变化适应当前的序列长度。对于更长的序列,可以选择更大的 base,让 RoPE 的角度变化更缓慢,避免位置编码过于快速变化导致模型难以捕捉远距离关系;对于较短的序列,选择较小的 base,以提供足够的频率分辨率。

在源码中,并没有直接修改底数,而是乘上缩放因子。

scale = 1.
if self.use_xpos:
    power = (t - len(t) // 2) / self.scale_base
    scale = self.scale ** rearrange(power, 'n -> n 1')
    scale = torch.cat((scale, scale), dim=-1)


#作用scale
(t_middle * freqs.cos() * scale) + (rotate_half(t_middle) * freqs.sin() * scale)

在llama的源码【6】中,也可以看到类似的动态调整freq的代码:

3.4 旋转位置编码变换

        有了上述关键模块,就可以实施q、k的旋转变换。

@autocast(enabled=False)
def apply_rotary_emb(freqs, t, start_index=0, scale=1., seq_dim=-2):
    dtype = t.dtype

    if t.ndim == 3:
        seq_len = t.shape[seq_dim]
        freqs = freqs[-seq_len:]

    rot_dim = freqs.shape[-1]
    end_index = start_index + rot_dim

    assert rot_dim <= t.shape[
        -1], f'feature dimension {t.shape[-1]} is not of sufficient size to rotate in all the positions {rot_dim}'

    # 将t分为三部分:左、中(要变换的部分)和右
    t_left = t[..., :start_index]
    t_middle = t[..., start_index:end_index]
    t_right = t[..., end_index:]

    # 应用旋转嵌入
    t_transformed = (t_middle * freqs.cos() * scale) + (rotate_half(t_middle) * freqs.sin() * scale)

    out = torch.cat((t_left, t_transformed, t_right), dim=-1)

    return out.type(dtype)

 对应t_transformed代码来理解下图:

4. 参考材料

【1】lucidrains/rotary-embedding-torch

【2】RoFormer: Enhanced Transformer with Rotary Position Embedding

【3】A Length-Extrapolatable Transformer

【4】Extending Context Window of Large Language Models via Positional Interpolation

【5】llama3代码阅读

【6】llama github源码

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2098602.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

前后端分离的security角色权限实现

本案例是使用SpringBoot2.7.6securityMyBatis-plusVue2axios实现 一、security简介 Spring Security是一个功能强大且高度可定制的身份验证和访问控制框架&#xff0c;专为Java应用程序设计。 &#xff08;1&#xff09;基本功能 身份验证&#xff08;Authentication&#x…

关于安装MySQL遇到的问题

数据库相关概念 &#x1f4a1;数据库系统 &#xff08; DataBase System&#xff0c; 简称 DBS&#xff09; 是指计算机系统引入数据库后的系统构成&#xff0c; 是一个具有管理数据库功能的计算机软硬件综合系统。 数据库系统可以实现有组织地、动态地存储大量数据、提供数…

【补-办公室】拟批语的区别

拟批语 常见拟批语 批示、审示、阅示、核注 审批、审核、审阅、审定&#xff08;订&#xff09;、审发、审议、审处、阅改、阅知、阅研、阅处、研提、研办、研复、核&#xff08;转&#xff09;报、核示、核批、批办等 阅示和审示 区分是收文还是发文 发文审&#xff0c;收文阅…

本地部署AList并挂载小雅超集结合内网穿透实现无公网IP远程访问

文章目录 前言1. 本地部署AList2. AList挂载网盘3. 部署小雅alist3.1 Token获取3.2 部署小雅3.3 挂载小雅alist到AList中 4. Cpolar内网穿透安装5. 创建公网地址6. 配置固定公网地址 &#x1f4a1; 推荐 前些天发现了一个巨牛的人工智能学习网站&#xff0c;通俗易懂&#xff…

jenkins-gitee-genkins

在电脑下载git 用一个有war包的项目 下载插件 添加 .ignore文件 添加target 建git仓库 提交 推送 推送完成在gitee能看到 这时候已经完成了前两部 项目如果添加功能

[嵌入式 C 语言] int main(int argc, char *argv[])

一、含义 在C语言中&#xff0c;main 函数是程序的起点&#xff0c;也就是执行的入口点。main 函数可以接受命令行参数&#xff0c;并且通常定义如下&#xff1a; int main(int argc, char *argv[]) int argc: 这个参数代表“参数计数”&#xff08;Argument Count&#xff0…

实验记录 | PointMLP | Grouping layer + Geometric Affine

引言 自 PointNet 腾空出世&#xff0c;点云分析的深度框架便成为了该领域的热点&#xff0c;点云学习网络的发展便一发不可收拾。和大部分深度网络一样&#xff0c;点云网络遵循着 “降采样&#xff0c;聚合特征” 的基本思路&#xff0c;逐步提取点云的深度特征。 大部分点…

【九芯电子】星空灯语音识别芯片方案选型——NRK3301

在快节奏的现代生活中&#xff0c;人们对于居家环境的舒适性与便捷性追求日益增强&#xff0c;而星空灯语音控制的技术诞生&#xff0c;正是这一追求下的智慧结晶&#xff0c;极大地提升了居住的愉悦感与科技感。 九芯NRK3301语音识别芯片‌被广泛应用于智能照明产品中&#xf…

【python因果推断库2】使用 PyMC 模型进行差分-in-差分(Difference in Differences, DID)分析

目录 使用 PyMC 模型进行差分-in-差分&#xff08;Difference in Differences, DID&#xff09;分析 导入数据 分析 使用 PyMC 模型建模银行业数据集 导入数据 分析 1 - 经典 22 差分-in-差分 (DiD) 分析 2 - 具有多个干预前后观测值的差分-in-差分 (DiD) 分析 使用 PyMC…

VSCode + Git的常规操作(一)【描述详细直白,小白一学就会】

目录 一、文章简介 二、具体操作流程 1、操作前提 2、设置用户名、用户邮箱 &#xff08;1&#xff09;打开命令框 &#xff08;2&#xff09;配置用户名 &#xff08;3&#xff09;配置用户名邮箱 &#xff08;4&#xff09;查看配置 3、SSH密钥对的介绍、生成及配置…

008、架构_MDS

​架构 什么是元数据 什么是元数据 元数据又称中介数据、中继数据,为描述数据的数据,主要是描述数据属性的信息,用来支持如指示存储位置、历史数据、资源查找、文件记录等功能;GoldenDB 数据库元数据大致分为两类: 数据字典:库、表、字段属性信息、视图、函数、存储过程属…

【代码随想录训练营第42期 Day48打卡 - 单调栈 - LeetCode 739. 每日温度 496.下一个更大元素 I 503.下一个更大元素II

目录 一、做题心得 二、题目与题解 题目一&#xff1a;739. 每日温度 题目链接 题解1&#xff1a;暴力--超时 题解2&#xff1a;单调栈 题目二&#xff1a;496.下一个更大元素 I 题目链接 题解&#xff1a;单调栈哈希 题目三&#xff1a;503.下一个更大元素II 题目链…

神经网络训练不起来怎么办(五)| Batch Normalization

Ⅰ&#xff0c;领域背景 训练困境&#xff1a;当 input feature 在不同 dimension 上差距很大的时候&#xff0c;会产生一个非常崎岖的 error surface&#xff08;误差平面&#xff09;。这种崎岖多变的误差平面容易导致训练陷入以下的几个困境。 收敛困难&#xff1a;在崎岖…

注释1111

3。3 Batch Normalization (BN) 的工作原理 Batch Normalization 是在处理一个 "批次" 数据时&#xff0c;计算这个批次内所有样本的平均值和方差&#xff0c;然后使用这些统计量对每个样本进行归一化。这就是说&#xff1a; 批次&#xff08;batch&#xff09;&a…

局部整体(五)利用python绘制旭日图

局部整体&#xff08;五&#xff09;利用python绘制旭日图 旭日图&#xff08; Sunburst Charts&#xff09;简介 由于其形状像太阳光由内向外辐射出来&#xff0c;所以叫SunBurst(太阳爆发)&#xff0c;中文也叫日出图。是多个层级的环图/饼图的拓展&#xff0c;可以显示多个…

GNU的编译工具链

文章目录 GNU的编译工具链 GNU的编译工具链 预编译器cpp 编译器 cc1 汇编器 as 链接器 ld 其中cpp和cc1属于gcc的一部分&#xff0c;as和ld属于binutils的一部分。

MySQL-如何定位慢查询

慢查询&#xff1a;页面加载过慢&#xff0c;接口压测响应时间过长&#xff08;超过1s&#xff09;

STM32基础篇:PWR

PWR简介 PWR&#xff08;Power Control&#xff09;&#xff0c;为电源控制模块&#xff0c;负责管理STM32内部的电源供电部分&#xff0c;可以实现可编程电压监测器和低功耗模式的功能。 1、可编程电压监测器 简称PVD&#xff0c;可以监控VDD电源电压。当VDD下降到PVD阀值以…

yum安装nexus3详细教程分享

创建nexus用户&#xff0c;类似于这种中间件&#xff0c;尽量做到专户管理&#xff0c;当然如果你喜欢直接用root权限安装&#xff0c;更改配置文件也是可以支持的。但是实际上大多情况下&#xff0c;在生产环境是拿不到root权限的。 useradd -m nexus为nexus用户设置密码 pass…

AS-V1000视频监控平台客户端播放实时视频时,一些视频画面显示的时间不准确的解决方法

目录 一、背景说明 二、解决过程 1、查看设备时间 2、查看服务器时间 3、ntp介绍 1) ntp的概念 2) ntp的同步方式 3) ntp的优势 4、自动校准服务器和设备时间 1) 下载ntp 2) 修改ntp.conf 3) 重启ntp服务&#xff0c;自动校准时间 4) 国标重新接入设备自动同步时间 三、问题解…