NLP从零开始------16.文本中阶处理之序列到序列模型(1)

news2024/9/22 6:50:42

1. 序列到序列模型简介

        序列到序列( sequence to sequence, seq2seq) 是指输入和输出各为一个序列(如一句话) 的任务。本节将输入序列称作源序列,输出序列称作目标序列。序列到序列有非常多的重要应用, 其中最有名的是机器翻译( machine translation), 机器翻译模型的输入是待翻译语言(源语言) 的文本,输出则是翻译后的语言(目标语言) 的文本。

        此外, 序列到序列的应用还有: 改写( paraphrase), 即将输入文本保留原意, 用意思相近的词进行重写; 风格迁移( style transfer), 即转换输入文本的风格(如口语转书面语、负面评价改为正面评价、现代文改为文言文等); 文本摘要( summarization), 即将较长的文本总结为简短精练的短文本; 问答( question answering), 即为用户输入的问题提供回答;对话( dialog),即对用户的输入进行回应。这些都是自然语言处理中非常重要的任务。另外,还有许多任务,尽管它们并非典型的序列到序列任务,但也可以使用序列到序列的方法解决,例如后面章节将要提到的命名实体识别任务,即识别输入句子中的人名、地名等实体,既可以使用后面章节将要介绍的序列标注方法来解决,也可以使用序列到序列方法解决,举例如下:

        源序列: 小红在上海旅游。

        目标序列:[小红|人名]在[上海|地名]旅游。

        类似地,后续章节将要介绍的成分句法分析( constituency parsing)、语义角色标注( semantic role labeling, SRL)、共指消解( coreference resolution) 等任务也都可以使用序列到序列的方法解决。值得一提的是,虽然前面提到的这些任务可以利用序列到序列的方式解决,但是许多情况下效果不如其最常用的方式(如利用序列标注方法解决命名实体识别)。
        对于像机器翻译这一类经典的序列到序列任务,采用基于神经网络的方法具有非常大的优势。在早期的相关研究被提出后不久,基于神经网络序列到序列的机器翻译模型效果就迅速提升并超过了更为传统的统计机器翻译模型,成为主流的机器翻译方案。因此,本节主要介绍基于神经网络的序列到序列方法,包括模型、学习和解码。随后介绍序列到序列模型中常用的指针网络与拷贝机制。最后介绍序列到序列任务的一些延伸和扩展。

2. 基于神经网络的序列到序列模型

        序列到序列模型与上个章节介绍的语言模型十分类似,都需要在已有文字序列的基础上预测下一个词的概率分布。其区别是,语言模型只需建模一个序列, 而序列到序列模型需要建模两个序列,因此需要包含两个模块:一个编码器用于处理源序列,一个解码器用于生成目标序列。本小节将依次介绍基于循环神经网络、注意力机制以及 Transformer的序列到序列模型。

2.1 循环神经网络

        如下图所示, 基于循环神经网络(包括长短期记忆等变体)的序列到序列模型与前几个章节介绍的循环神经网络非常相似,但是按输入不同分成了编码器、解码器两部分, 其中编码器依次接收源序列的词,但不计算任何输出。编码器最后一步的隐状态成为解码器的初始隐状态,这个隐状态向量有时称作上下文向量( context vector),它编码了整个源序列的信息。解码器在第一步接收特殊符号“< sos>”作为目标序列的起始符, 并预测第一个词的概率分布,从中解码出第一个词(解码方法将在下面讨论);随后将第一个词作为下一步的输入, 继续解码第二个词,以此类推, 直到最后解码出终止符“< oos>”,意味着目标序列已解码完毕。这种方式即前面所介绍的自回归过程。

        下面介绍基于循环神经网络的编码器和解码器的代码实现。首先是作为编码器的循环神经网络。

import torch
import torch.nn as nn

class RNNEncoder(nn.Module):
    def __init__(self, vocab_size, hidden_size):
        super(RNNEncoder, self).__init__()
        # 隐层大小
        self.hidden_size = hidden_size
        # 词表大小
        self.vocab_size = vocab_size
        # 词嵌入层
        self.embedding = nn.Embedding(self.vocab_size,\
            self.hidden_size)
        self.gru = nn.GRU(self.hidden_size, self.hidden_size,\
            batch_first=True)

    def forward(self, inputs):
        # inputs: batch * seq_len
        # 注意门控循环单元使用batch_first=True,因此输入需要至少batch为1
        features = self.embedding(inputs)
        output, hidden = self.gru(features)
        return output, hidden

         接下来是作为解码器的另一个循环神经网络的代码实现。

class RNNDecoder(nn.Module):
    def __init__(self, vocab_size, hidden_size):
        super(RNNDecoder, self).__init__()
        self.hidden_size = hidden_size
        self.vocab_size = vocab_size
        # 序列到序列任务并不限制编码器和解码器输入同一种语言,
        # 因此解码器也需要定义一个嵌入层
        self.embedding = nn.Embedding(self.vocab_size, self.hidden_size)
        self.gru = nn.GRU(self.hidden_size, self.hidden_size,\
            batch_first=True)
        # 用于将输出的隐状态映射为词表上的分布
        self.linear = nn.Linear(self.hidden_size, self.vocab_size)

    # 解码整个序列
    def forward(self, encoder_outputs, encoder_hidden, target_tensor=None):
        batch_size = encoder_outputs.size(0)
        # 从<sos>开始解码
        decoder_input = torch.empty(batch_size, 1,\
            dtype=torch.long).fill_(SOS_token)
        decoder_hidden = encoder_hidden
        decoder_outputs = []
        
        # 如果目标序列确定,最大解码步数确定;
        # 如果目标序列不确定,解码到最大长度
        if target_tensor is not None:
            seq_length = target_tensor.size(1)
        else:
            seq_length = MAX_LENGTH
        
        # 进行seq_length次解码
        for i in range(seq_length):
            # 每次输入一个词和一个隐状态
            decoder_output, decoder_hidden = self.forward_step(\
                decoder_input, decoder_hidden)
            decoder_outputs.append(decoder_output)

            if target_tensor is not None:
                # teacher forcing: 使用真实目标序列作为下一步的输入
                decoder_input = target_tensor[:, i].unsqueeze(1)
            else:
                # 从当前步的输出概率分布中选取概率最大的预测结果
                # 作为下一步的输入
                _, topi = decoder_output.topk(1)
                # 使用detach从当前计算图中分离,避免回传梯度
                decoder_input = topi.squeeze(-1).detach()

        decoder_outputs = torch.cat(decoder_outputs, dim=1)
        decoder_outputs = F.log_softmax(decoder_outputs, dim=-1)
        # 为了与AttnRNNDecoder接口保持统一,最后输出None
        return decoder_outputs, decoder_hidden, None

    # 解码一步
    def forward_step(self, input, hidden):
        output = self.embedding(input)
        output = F.relu(output)
        output, hidden = self.gru(output, hidden)
        output = self.out(output)
        return output, hidden

        

2.2 注意力机制

        在序列到序列循环神经网络上加入注意力机制的方式同样与上一章节介绍的方式非常相似,区别在于,注意力机制在这里仅用于解码时建模从目标序列到源序列的依赖关系。具体而言,在解码的每一步,将解码器输出的隐状态特征作为查询,将编码器计算的源序列中每个元素的隐状态特征作为键和值,从而计算注意力输出向量; 这个输出向量会与解码器当前步骤的隐状态特征一起用于预测目标序列的下一个元素。
        序列到序列中的注意力机制使得解码器能够直接“看到”源序列,而不再仅依赖循环神经网络的隐状态传递源序列的信息。此外,注意力机制提供了一种类似于人类处理此类任务时的序列到序列机制。人类在进行像翻译这样的序列到序列任务时,常常会边看源句边进行翻译,而不是一次性读完源句之后记住它再翻译, 而注意力机制模仿了这个过程。最后,注意力机制为序列到序列模型提供了一些可解释性: 通过观察注意力分布,可以知道解码器生成每个词时在注意源句中的哪些词,这可以看作源句和目标句之间的一种“软性”对齐。
        下面介绍基于注意力机制的循环神经网络解码器的代码实现。我们使用一个注意力层来计算注意力权重,其输入为解码器的输入和隐状态。这里使用 Bahdanau注意力( Bahdanau attention) , 这是序列到序列模型中应用最广泛的注意力机制,特别是对于机器翻译任务。该注意力机制使用一个对齐模型( alignment model) 来计算编码器和解码器隐状态之间的注意力分数,具体来讲就是一个前馈神经网络。相比于点乘注意力, Bahdanau注意力利用了非线性变换。

import torch.nn.functional as F

class BahdanauAttention(nn.Module):
    def __init__(self, hidden_size):
        super(BahdanauAttention, self).__init__()
        self.Wa = nn.Linear(hidden_size, hidden_size)
        self.Ua = nn.Linear(hidden_size, hidden_size)
        self.Va = nn.Linear(hidden_size, 1)

    def forward(self, query, keys):
        # query: batch * 1 * hidden_size
        # keys: batch * seq_length * hidden_size
        # 这一步用到了广播(broadcast)机制
        scores = self.Va(torch.tanh(self.Wa(query) + self.Ua(keys)))
        scores = scores.squeeze(2).unsqueeze(1)

        weights = F.softmax(scores, dim=-1)
        context = torch.bmm(weights, keys)
        return context, weights

class AttnRNNDecoder(nn.Module):
    def __init__(self, vocab_size, hidden_size):
        super(AttnRNNDecoder, self).__init__()
        self.hidden_size = hidden_size
        self.vocab_size = vocab_size
        self.embedding = nn.Embedding(self.vocab_size, self.hidden_size)
        self.attention = BahdanauAttention(hidden_size)
        # 输入来自解码器输入和上下文向量,因此输入大小为2 * hidden_size
        self.gru = nn.GRU(2 * self.hidden_size, self.hidden_size,\
            batch_first=True)
        # 用于将注意力的结果映射为词表上的分布
        self.out = nn.Linear(self.hidden_size, self.vocab_size)

    # 解码整个序列
    def forward(self, encoder_outputs, encoder_hidden, target_tensor=None):
        batch_size = encoder_outputs.size(0)
        # 从<sos>开始解码
        decoder_input = torch.empty(batch_size, 1, dtype=\
            torch.long).fill_(SOS_token)
        decoder_hidden = encoder_hidden
        decoder_outputs = []
        attentions = []

        # 如果目标序列确定,最大解码步数确定;
        # 如果目标序列不确定,解码到最大长度
        if target_tensor is not None:
            seq_length = target_tensor.size(1)
        else:
            seq_length = MAX_LENGTH
        
        # 进行seq_length次解码
        for i in range(seq_length):
            # 每次输入一个词和一个隐状态
            decoder_output, decoder_hidden, attn_weights = \
                self.forward_step(
                    decoder_input, decoder_hidden, encoder_outputs
            )
            decoder_outputs.append(decoder_output)
            attentions.append(attn_weights)

            if target_tensor is not None:
                # teacher forcing: 使用真实目标序列作为下一步的输入
                decoder_input = target_tensor[:, i].unsqueeze(1)
            else:
                # 从当前步的输出概率分布中选取概率最大的预测结果
                # 作为下一步的输入
                _, topi = decoder_output.topk(1)
                # 使用detach从当前计算图中分离,避免回传梯度
                decoder_input = topi.squeeze(-1).detach()

        decoder_outputs = torch.cat(decoder_outputs, dim=1)
        decoder_outputs = F.log_softmax(decoder_outputs, dim=-1)
        attentions = torch.cat(attentions, dim=1)
        # 与RNNDecoder接口保持统一,最后输出注意力权重
        return decoder_outputs, decoder_hidden, attentions

    # 解码一步
    def forward_step(self, input, hidden, encoder_outputs):
        embeded =  self.embedding(input)
        # 输出的隐状态为1 * batch * hidden_size,
        # 注意力的输入需要batch * 1 * hidden_size
        query = hidden.permute(1, 0, 2)
        context, attn_weights = self.attention(query, encoder_outputs)
        input_gru = torch.cat((embeded, context), dim=2)
        # 输入的隐状态需要1 * batch * hidden_size
        output, hidden = self.gru(input_gru, hidden)
        output = self.out(output)
        return output, hidden, attn_weights

2.3 Transformer

        Transformer模型同样也可以用于序列到序列任务。编码器与上一章介绍的 Transformer结构几乎相同,仅有两方面区别。一方面,由于不需要像语言模型那样每一步只能看到前置序列,而是需要看到完整的句子, 因此掩码多头自注意力模块中去除了注意力掩码。另一方面,由于编码器不需要输出,因此去掉了顶层的线性分类器。
        解码器同样与上一章介绍的 Transformer结构几乎相同,但在掩码多头自注意力模块之后增加了一个交叉多头注意力模块,以便在解码时引入编码器所计算的源序列的信息。交叉注意力模块的设计与上面介绍的循环神经网络上的注意力机制是类似的。具体而言,交叉注意力模块使用解码器中自注意力模块的输出计算查询,使用编码器顶端的输出计算键和值,不使用任何注意力掩码, 其他部分与自注意力模块一样。

        基于 Transformer的序列到序列模型通常也使用自回归的方式进行解码, 但 Transformer不同位置之间的并行性,使得非自回归方式的解码成为可能。非自回归解码器的结构与自回归解码器类似,但解码时需要先预测目标句的长度,将该长度对应个数的特殊符号作为输入,此外自注意力模块不需要掩码,所有位置的计算并行执行。有关具体细节这里不再展开。

        接下来我们复用上一章的代码,实现基于 Transformer的编码器和解码器。

import torch
import torch.nn as nn
import torch.nn.functional as F
import numpy as np
import sys
sys.path.append('./code')
from transformer import *

class TransformerEncoder(nn.Module):
    def __init__(self, vocab_size, max_len, hidden_size, num_heads,\
            dropout, intermediate_size):
        super().__init__()
        self.embedding_layer = EmbeddingLayer(vocab_size, max_len,\
            hidden_size)
        # 直接使用TransformerLayer作为编码层,简单起见只使用一层
        self.layer = TransformerLayer(hidden_size, num_heads,\
            dropout, intermediate_size)
        # 与TransformerLM不同,编码器不需要线性层用于输出
        
    def forward(self, input_ids):
        # 这里实现的forward()函数一次只能处理一句话,
        # 如果想要支持批次运算,需要根据输入序列的长度返回隐状态
        assert input_ids.ndim == 2 and input_ids.size(0) == 1
        seq_len = input_ids.size(1)
        assert seq_len <= self.embedding_layer.max_len
        
        # 1 * seq_len
        pos_ids = torch.unsqueeze(torch.arange(seq_len), dim=0)
        attention_mask = torch.ones((1, seq_len), dtype=torch.int32)
        input_states = self.embedding_layer(input_ids, pos_ids)
        hidden_states = self.layer(input_states, attention_mask)
        return hidden_states, attention_mask
class MultiHeadCrossAttention(MultiHeadSelfAttention):
    def forward(self, tgt, tgt_mask, src, src_mask):
        """
        tgt: query, batch_size * tgt_seq_len * hidden_size
        tgt_mask: batch_size * tgt_seq_len
        src: keys/values, batch_size * src_seq_len * hidden_size
        src_mask: batch_size * src_seq_len
        """
        # (batch_size * num_heads) * seq_len * (hidden_size / num_heads)
        queries = self.transpose_qkv(self.W_q(tgt))
        keys = self.transpose_qkv(self.W_k(src))
        values = self.transpose_qkv(self.W_v(src))
        # 这一步与自注意力不同,计算交叉掩码
        # batch_size * tgt_seq_len * src_seq_len
        attention_mask = tgt_mask.unsqueeze(2) * src_mask.unsqueeze(1)
        # 重复张量的元素,用以支持多个注意力头的运算
        # (batch_size * num_heads) * tgt_seq_len * src_seq_len
        attention_mask = torch.repeat_interleave(attention_mask,\
            repeats=self.num_heads, dim=0)
        # (batch_size * num_heads) * tgt_seq_len * \
        # (hidden_size / num_heads)
        output = self.attention(queries, keys, values, attention_mask)
        # batch * tgt_seq_len * hidden_size
        output_concat = self.transpose_output(output)
        return self.W_o(output_concat)

# TransformerDecoderLayer比TransformerLayer多了交叉多头注意力
class TransformerDecoderLayer(nn.Module):
    def __init__(self, hidden_size, num_heads, dropout,\
                 intermediate_size):
        super().__init__()
        self.self_attention = MultiHeadSelfAttention(hidden_size,\
            num_heads, dropout)
        self.add_norm1 = AddNorm(hidden_size, dropout)
        self.enc_attention = MultiHeadCrossAttention(hidden_size,\
            num_heads, dropout)
        self.add_norm2 = AddNorm(hidden_size, dropout)
        self.fnn = PositionWiseFNN(hidden_size, intermediate_size)
        self.add_norm3 = AddNorm(hidden_size, dropout)

    def forward(self, src_states, src_mask, tgt_states, tgt_mask):
        # 掩码多头自注意力
        tgt = self.add_norm1(tgt_states, self.self_attention(\
            tgt_states, tgt_states, tgt_states, tgt_mask))
        # 交叉多头自注意力
        tgt = self.add_norm2(tgt, self.enc_attention(tgt,\
            tgt_mask, src_states, src_mask))
        # 前馈神经网络
        return self.add_norm3(tgt, self.fnn(tgt))

class TransformerDecoder(nn.Module):
    def __init__(self, vocab_size, max_len, hidden_size, num_heads,\
                 dropout, intermediate_size):
        super().__init__()
        self.embedding_layer = EmbeddingLayer(vocab_size, max_len,\
            hidden_size)
        # 简单起见只使用一层
        self.layer = TransformerDecoderLayer(hidden_size, num_heads,\
            dropout, intermediate_size)
        # 解码器与TransformerLM一样,需要输出层
        self.output_layer = nn.Linear(hidden_size, vocab_size)
        
    def forward(self, src_states, src_mask, tgt_tensor=None):
        # 确保一次只输入一句话,形状为1 * seq_len * hidden_size
        assert src_states.ndim == 3 and src_states.size(0) == 1
        
        if tgt_tensor is not None:
            # 确保一次只输入一句话,形状为1 * seq_len
            assert tgt_tensor.ndim == 2 and tgt_tensor.size(0) == 1
            seq_len = tgt_tensor.size(1)
            assert seq_len <= self.embedding_layer.max_len
        else:
            seq_len = self.embedding_layer.max_len
        
        decoder_input = torch.empty(1, 1, dtype=torch.long).\
            fill_(SOS_token)
        decoder_outputs = []
        
        for i in range(seq_len):
            decoder_output = self.forward_step(decoder_input,\
                src_mask, src_states)
            decoder_outputs.append(decoder_output)
            
            if tgt_tensor is not None:
                # teacher forcing: 使用真实目标序列作为下一步的输入
                decoder_input = torch.cat((decoder_input,\
                    tgt_tensor[:, i:i+1]), 1)
            else:
                # 从当前步的输出概率分布中选取概率最大的预测结果
                # 作为下一步的输入
                _, topi = decoder_output.topk(1)
                # 使用detach从当前计算图中分离,避免回传梯度
                decoder_input = torch.cat((decoder_input,\
                    topi.squeeze(-1).detach()), 1)
                
        decoder_outputs = torch.cat(decoder_outputs, dim=1)
        decoder_outputs = F.log_softmax(decoder_outputs, dim=-1)
        # 与RNNDecoder接口保持统一
        return decoder_outputs, None, None
        
    # 解码一步,与RNNDecoder接口略有不同,RNNDecoder一次输入
    # 一个隐状态和一个词,输出一个分布、一个隐状态
    # TransformerDecoder不需要输入隐状态,
    # 输入整个目标端历史输入序列,输出一个分布,不输出隐状态
    def forward_step(self, tgt_inputs, src_mask, src_states):
        seq_len = tgt_inputs.size(1)
        # 1 * seq_len
        pos_ids = torch.unsqueeze(torch.arange(seq_len), dim=0)
        tgt_mask = torch.ones((1, seq_len), dtype=torch.int32)
        tgt_states = self.embedding_layer(tgt_inputs, pos_ids)
        hidden_states = self.layer(src_states, src_mask, tgt_states,\
            tgt_mask)
        output = self.output_layer(hidden_states[:, -1:, :])
        return output

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2096292.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Day-01—QT项目的新建

1.选择创建的项目类型&#xff0c;可以看到&#xff0c;这里可以创建多种语言的项目&#xff0c;可以直接用QT来进行前期C 的学习。 2.创建的名字中不要包含中文&#xff0c;可以用英文就用英文&#xff0c;如果不会英文&#xff0c;就用拼音也可以&#xff0c;保存地址中也不要…

aosp13自由窗口项目出现图库app划线不全bug修改-安卓framework实战项目

背景 在学习了马哥的分屏自由窗口pip专题后&#xff0c;进行了相关的自由窗口等比例放大操作&#xff0c;但是操作测试过程中学员朋友们有发现图库app进入自由窗口进行操作放大有红框显示不全的问题。 但是使用图库app时候发现红框居然显示不完整&#xff0c;具体效果如下图&a…

C语言基础(三十)

1、希尔排序&#xff1a; #include "date.h" #include <stdio.h> #include <stdlib.h> #include <time.h> // 希尔排序函数 void shellSort(int arr[], int n) { for (int gap n / 2; gap > 0; gap / 2) { // 对每个子列表进行插入排…

90分钟实现一门编程语言——极简解释器教程

关键字 解释器, C#, Scheme, 函数式编程 关于 本文介绍了如何使用C#实现一个简化但全功能的Scheme方言——iScheme及其解释器&#xff0c;通过从零开始逐步构建&#xff0c;展示了编程语言/解释器的工作原理。 作者 Lucida a.k.a Luc 如果你是通过移动设备阅读本教程&…

面向对象软件编程——OOP入门实践

工作一段时间了&#xff0c;工作内容趋向于算法模型的复现&#xff0c;就是复现论文算法然后结合业务逻辑开发软件。但是在设计和开发软件时&#xff0c;发现对于OOP理念和软件的设计原则等在实战中还是非常缺乏。于是开始补习&#xff0c;基础软件开发技术。 书籍&#xff1a;…

Arduino UNO 编程 第一期——下载及使用

字幕君已上线...... 副字幕君已上线...... 计数君已上线...... 彩色字幕君 ( 花了重金请来的 ) 已上线...... Doge智能系统已上线...... Doge:嗨嗨我又来了&#xff01; 观众们......已上线&#xff01;&#xff01;&#xff01;&#xff01;&#xff01; OK LETS GO&am…

理解大模型中的Cursor技术:优化长文本推理的前沿方案

理解大模型中的Cursor技术&#xff1a;优化长文本推理的前沿方案 随着自然语言处理&#xff08;NLP&#xff09;领域的快速发展&#xff0c;大型语言模型&#xff08;如GPT系列&#xff09;已广泛应用于文本生成、对话系统和复杂推理任务。然而&#xff0c;随着文本长度的增加…

灾难性遗忘问题(Catastrophic Forgetting,CF)是什么?

灾难性遗忘问题&#xff08;Catastrophic Forgetting&#xff0c;CF&#xff09;是什么&#xff1f; 在深度学习和人工智能领域中&#xff0c;“灾难性遗忘”&#xff08;Catastrophic Forgetting&#xff09;是指当神经网络在增量学习&#xff08;Incremental Learning&#…

用AI生成旅游打卡照!FLUX假装去旅行lora的使用【附工作流】

hello&#xff01;今天我们来聊聊一个特别有意思的话题&#xff1a;如何用AI生成那些看起来像是去过世界各地的旅游打卡照&#xff0c;还能在朋友圈里炫耀一番。很多人看到这些照片都会问&#xff1a;“你真的去过这些地方吗&#xff1f;” 而且最主要的是这种图片做点自媒体旅…

数据仓库系列13:增量更新和全量更新有什么区别,如何选择?

你是否曾经在深夜加班时&#xff0c;面对着庞大的数据仓库&#xff0c;思考过这样一个问题&#xff1a;“我应该选择增量更新还是全量更新&#xff1f;” 这个看似简单的选择&#xff0c;却可能影响整个数据处理的效率和准确性。今天&#xff0c;让我们深入探讨这个数据仓库领域…

RT-DETR+Sort 实现目标跟踪

在前一篇博客中&#xff0c;博主介绍了利用YOLOv8与Sort算法实现目标跟踪&#xff0c;在今天这篇博客中&#xff0c;博主将利用RT-DETR算法与Sort算法相结合&#xff0c;从而实现目标跟踪。。 这里博主依旧是采用ONNX格式的模型文件来执行推理过程&#xff0c;由于Sort算法是基…

vue part6

Vue脚手&#xff08;CLI&#xff09; 第一步&#xff08;仅第一次执行&#xff09;&#xff1a;全局安装vue/cli。 npm install -g vue/cli- 第二步&#xff1a;切换到你要创建项目的目录&#xff0c;然后使用命令创建项目vue create xxxx&#xff08;项目名字&#xff09; 第…

el-table利用折叠面板 type=“expand“ 嵌套el-table,并实现 明细数据多选,选中明细数据后返回原数据得嵌套格式

效果图: 废话不多说直接上代码&#xff0c;完整代码展示&#xff1a; <template><el-tableborderref"multipleTable":data"tableData"tooltip-effect"dark"style"width: 100%"><el-table-columnwidth"50"la…

线程池在接受到30个比较耗时的任务时的状态,在前面30个比较耗时的任务还没执行完成的情况下,再来多少个任务会触发拒绝策略?

目录 一、提出问题 二、解答 问题 1: 线程池在接受到30个比较耗时的任务时的状态 问题 2: 在前面30个比较耗时的任务还没执行完成的情况下&#xff0c;再来多少个任务会触发拒绝策略&#xff1f; 总结 一、提出问题 我们首先自定义一个线程池&#xff1a; new ThreadPoo…

18042 计算分段函数值

### 伪代码 1. 读取输入的实数x。 2. 根据x的值计算y&#xff1a; - 如果x < 1&#xff0c;y x。 - 如果1 < x < 10&#xff0c;y 2x - 1。 - 如果x > 10&#xff0c;y 3x - 11。 3. 输出y的值&#xff0c;保留两位小数。 ### C代码 #include <io…

fl studio 21/24破解版(水果音乐制作软件24) v24.1.1.4285附安装教程

fl studio 21/24破解版&#xff0c;又被国内网友称之为水果音乐制作软件24&#xff0c;是Image-Line公司成立26周年而发布的一个版本&#xff0c;是目前互联网上最优秀的完整的软件音乐制作环境或数字音频工作站&#xff0c;包含了编排&#xff0c;录制&#xff0c;编辑&#x…

World of Warcraft [CLASSIC][80][Grandel] Call to Arms: Warsong Gulch

Call to Arms: Warsong Gulch - Quest - 魔兽世界怀旧服CTM4.34《大地的裂变》数据库_大灾变85级魔兽数据库_ctm数据库 10人PVP战歌峡谷&#xff0c;该战场经常用来互刷军衔和荣誉&#xff0c;哈哈 wow plugin_魔兽世界挂机插件-CSDN博客

完美解决node-sass@4.14.1 postinstall: `node scripts/build.js` 问题

node v14.16.0 安装node-sass4.14.1会出现报错 看日志排查发现设置的源国内的都有问题 直接梯子下载&#xff1a; https://github.com/sass/node-sass/releases/download/v4.14.1/win32-x64-83_binding.node 本地启动phpstudy&#xff0c;当然你也可以放在你服务器上&#xff0…

学习笔记 ---- 数论分块(整除分块)

文章目录 算法概述引理引理 1 1 1引理 2 2 2 数论分块结论&#xff08;区间右端点公式&#xff09;过程 N N N 维数论分块向上取整的数论分块 例题 H ( n ) H(n) H(n)[CQOI2007] 余数求和[清华集训2012] 模积和 算法 概述 数论分块可以快速计算一些含有除法向下取整的和式(即…

掌握 SQL 数据操纵的基础技巧

在数据库管理中&#xff0c;SQL 数据操纵语言 (DML) 是至关重要的工具。它主要包括 INSERT、UPDATE 和 DELETE 语句&#xff0c;用于对数据库中的数据进行插入、更新和删除操作。本文将带你快速了解这些基本操作。 插入数据 在创建了一个表之后&#xff0c;最常见的操作就是插…