87.序列到序列学习(seq2seq)以及代码实现

news2024/10/5 13:54:25

1. 机器翻译

在这里插入图片描述

2. Seq2Seq

在这里插入图片描述

双向RNN可以做encoder,但不能做decoder。

3. 编码器-解码器细节

在这里插入图片描述

4. 训练

在这里插入图片描述

5. 衡量生成序列的好坏的BLEU

在这里插入图片描述

上面的公式既加入了段序列的惩罚项,又加入了更难出现的长序列的高权重。

6. 总结:

  • Seq2seq从一个句子生成另一个句子
  • 编码器和解码器都是RNN
  • 将编码器最后时间隐状态来初始解码器隐状态来完成信息传递
  • 常用BLEU来衡量生成序列的好坏

7. 代码实现

下面,我们动手构建 seq2seq的设计, 并将基于“英-法”数据集来训练这个机器翻译模型。

import collections
import math
import torch
from torch import nn
from d2l import torch as d2l

7.1 编码器

现在,来实现循环神经网络编码器。 注意,我们使用了嵌入层(embedding layer) 来获得输入序列中每个词元的特征向量。 嵌入层的权重是一个矩阵, 其行数等于输入词表的大小(vocab_size), 其列数等于特征向量的维度(embed_size)。 对于任意输入词元的索引 𝑖 , 嵌入层获取权重矩阵的第 𝑖 行(从 0 开始)以返回其特征向量。 另外,本文选择了一个多层门控循环单元来实现编码器。

class Seq2SeqEncoder(d2l.Encoder):
    """用于序列到序列学习的循环神经网络编码器"""
    def __init__(self, vocab_size, embed_size, num_hiddens, num_layers,
                 dropout=0, **kwargs):
        super(Seq2SeqEncoder, self).__init__(**kwargs)
        # 嵌入层
        # embed是word2vec的思想,把字典里one-hot编码的字或者词,变成预训练(可能需要微调)的词向量
        # embed就是将word映射到向量空间
        self.embedding = nn.Embedding(vocab_size, embed_size)
        # 第一个参数是inputs大小,在之前一些代码中传入的是vocab_size或者len(vocab),是词表的大小
        # 但是在这里因为使用了nn.Embedding将词表的大小改变成了embed_size,再作为输入
        self.rnn = nn.GRU(embed_size, num_hiddens, num_layers,
                          dropout=dropout)

    def forward(self, X, *args):
        # 输出'X'的形状:(batch_size,num_steps,embed_size)
        X = self.embedding(X)
        # 在循环神经网络模型中,第一个轴对应于时间步
        # 把batch_size换到中间,把num_steps换到第一个轴
        # 转换为(时间步数量,批量大小,词表大小)
        X = X.permute(1, 0, 2)
        # 如果未提及状态,则默认为0

        # 输出output是每一个时间步的最后一层RNN的输出,根据图去理解,最后一层RNN往上的输出
        # state: 在最后一个时刻所有的层的输出,根据图去理解,是每一层最右边的输出
        output, state = self.rnn(X)
        # output的形状:(num_steps,batch_size,num_hiddens)
        # state的形状:(num_layers,batch_size,num_hiddens)
        return output, state

下面,我们实例化上述编码器的实现: 我们使用一个两层门控循环单元编码器,其隐藏单元数为 16 。 给定一小批量的输入序列X(批量大小为 4 ,时间步为 7 )。 在完成所有时间步后, 最后一层的隐状态的输出是一个张量(output由编码器的循环层返回), 其形状为(时间步数,批量大小,隐藏单元数)。

Pytorch:model.train()和model.eval()用法和区别,以及model.eval()和torch.no_grad()的区别

encoder = Seq2SeqEncoder(vocab_size=10, embed_size=8, num_hiddens=16,
                         num_layers=2)
encoder.eval() # 在eval模式下,dropout不会生效
X = torch.zeros((4, 7), dtype=torch.long)
output, state = encoder(X)
output.shape

运行结果:

在这里插入图片描述

由于这里使用的是门控循环单元, 所以在最后一个时间步的多层隐状态的形状是 (隐藏层的数量,批量大小,隐藏单元的数量)。 如果使用长短期记忆网络,state中还将包含记忆单元信息。

state.shape

运行结果:

在这里插入图片描述

7.2 解码器

当实现解码器时, 我们直接使用编码器最后一个时间步的隐状态来初始化解码器的隐状态。 这就要求使用循环神经网络实现的编码器和解码器具有相同数量的层和隐藏单元。 为了进一步包含经过编码的输入序列的信息,上下文变量在所有的时间步与解码器的输入进行拼接(concatenate)。 为了预测输出词元的概率分布, 在循环神经网络解码器的最后一层使用全连接层来变换隐状态。

class Seq2SeqDecoder(d2l.Decoder):
    """用于序列到序列学习的循环神经网络解码器"""
    def __init__(self, vocab_size, embed_size, num_hiddens, num_layers,
                 dropout=0, **kwargs):
        super(Seq2SeqDecoder, self).__init__(**kwargs)
        # decoder在模型上和encoder是一样的
        # decoder有自己的embedding层,不能和encoder共享,因为词汇都不一样
        self.embedding = nn.Embedding(vocab_size, embed_size)
        # 这里的输入是embed_size + num_hiddens
        # 并且假设了encoder隐藏层大小和decoder的隐藏层大小一样
        self.rnn = nn.GRU(embed_size + num_hiddens, num_hiddens, num_layers,
                          dropout=dropout)
        # decoder有输出层
        self.dense = nn.Linear(num_hiddens, vocab_size)

    def init_state(self, enc_outputs, *args):
      # enc_outputs是output、state
      # enc_outputs[1] 就是encoder输出的state
        return enc_outputs[1]

    def forward(self, X, state):
        # 输出'X'的形状:(batch_size,num_steps,embed_size)
        X = self.embedding(X).permute(1, 0, 2)

        # context是上下文信息
        # state是最后一个时刻的所有RNN层的隐藏状态,也就是图中最后一竖的H
        # state[-1]就是最后一个时刻的最后一层RNN的输出,也就是图中右上角的H
        # 那个右上角的H包括了所有浓缩的信息,把它拿到之后,重复几次,
        # 重复成decoder输入的长度,每个时刻都重复一次
        # 广播context,使其具有与X相同的num_steps
        # 从另一个角度理解为:repeat操作增加通道数,这里把二位矩阵扩充到三维,增加了seq维
        context = state[-1].repeat(X.shape[0], 1, 1)
        # decoder中RNN的输入是当前embedding的输出加上encoder传过来的上下文信息,
        # 虽然state已经传过来了,但是觉得不够,还要把最后那个时刻context和embedding拼在一起作为输入
        # 这也是为什么decoder的RNN的输入是embed_size + num_hiddens
        X_and_context = torch.cat((X, context), 2)
        output, state = self.rnn(X_and_context, state)
        output = self.dense(output).permute(1, 0, 2)
        # output的形状:(batch_size,num_steps,vocab_size)
        # state的形状:(num_layers,batch_size,num_hiddens)
        return output, state

下面,我们用与前面提到的编码器中相同的超参数来实例化解码器。 如我们所见,解码器的输出形状变为(批量大小,时间步数,词表大小), 其中张量的最后一个维度存储预测的词元分布。

decoder = Seq2SeqDecoder(vocab_size=10, embed_size=8, num_hiddens=16,
                         num_layers=2)
decoder.eval()
state = decoder.init_state(encoder(X))
output, state = decoder(X, state)
# 输出形状为(批量大小,时间步数,词表大小)
# 对每一个样本的每一个时刻都做一个输出
# state的形状为(层数,批量大小,隐藏层大小)
output.shape, state.shape

运行结果:

在这里插入图片描述

7.3 损失函数

在每个时间步,解码器预测了输出词元的概率分布。 类似于语言模型,可以使用softmax来获得分布, 并通过计算交叉熵损失函数来进行优化。 回想一下machine_translation中, 特定的填充词元被添加到序列的末尾, 因此不同长度的序列可以以相同形状的小批量加载。 但是,我们应该将填充词元的预测排除在损失函数的计算之外

为此,我们可以使用下面的sequence_mask函数 ,通过零值化屏蔽不相关的项, 以便后面任何不相关预测的计算都是与零的乘积,结果都等于零。 例如,如果两个序列的有效长度(不包括填充词元)分别为 1 和 2 , 则第一个序列的第一项和第二个序列的前两项之后的剩余项将被清除为零。

def sequence_mask(X, valid_len, value=0):
    """在序列中屏蔽不相关的项"""
    maxlen = X.size(1)
    mask = torch.arange((maxlen), dtype=torch.float32,
                        device=X.device)[None, :] < valid_len[:, None]
    X[~mask] = value
    return X

X = torch.tensor([[1, 2, 3], [4, 5, 6]])
sequence_mask(X, torch.tensor([1, 2]))

我们还可以使用此函数屏蔽最后几个轴上的所有项。如果愿意,也可以使用指定的非零值来替换这些项。

X = torch.ones(2, 3, 4)
sequence_mask(X, torch.tensor([1, 2]), value=-1)

现在,我们可以通过扩展softmax交叉熵损失函数遮蔽不相关的预测。 最初,所有预测词元的掩码都设置为1。 一旦给定了有效长度,与填充词元对应的掩码将被设置为0。 最后,将所有词元的损失乘以掩码,以过滤掉损失中填充词元产生的不相关预测。

class MaskedSoftmaxCELoss(nn.CrossEntropyLoss):
    """带遮蔽的softmax交叉熵损失函数"""
    # pred的形状:(batch_size,num_steps,vocab_size)
    # label的形状:(batch_size,num_steps)
    # valid_len的形状:(batch_size,)
    def forward(self, pred, label, valid_len):
        # 生成和label形状一样全1的矩阵
        weights = torch.ones_like(label)
        # 把有效的长度保留下来,其他变为0
        weights = sequence_mask(weights, valid_len)
        # reduction定义为none,就不会对loss求和或者求平均
        self.reduction='none'
        # 这里loss调用的是父类函数,其实super中的内容可以删掉
        # 在pytorch中的MaskedSoftmaxCELoss规定要把vocab_size放在第2个维度
        unweighted_loss = super(MaskedSoftmaxCELoss, self).forward(
            pred.permute(0, 2, 1), label)
        # unweighted_loss * weights 会使得有效的地方留下来,其他为0
        # dim=1,就是对每个句子取平均
        weighted_loss = (unweighted_loss * weights).mean(dim=1)
        return weighted_loss

我们可以创建三个相同的序列来进行代码健全性检查, 然后分别指定这些序列的有效长度为 4 、 2 和 0 。 结果就是,第一个序列的损失应为第二个序列的两倍,而第三个序列的损失应为零。

loss = MaskedSoftmaxCELoss()
# 3是批量大小,4是时间步数,10是每个单词向量的维度
# torch.tensor([4, 2, 0]:第一个样本所有都是valid,第二个样本只有前两个是valie
# 最后一个样本全都不是valid
loss(torch.ones(3, 4, 10), torch.ones((3, 4), dtype=torch.long),
     torch.tensor([4, 2, 0]))

运行结果:

在这里插入图片描述

7.4 训练

在下面的循环训练过程中, 特定的序列开始词元(“< bos>”)和 原始的输出序列(不包括序列结束词元“< eos>”) 拼接在一起作为解码器的输入。 这被称为强制教学(teacher forcing), 因为原始的输出序列(词元的标签)被送入解码器。 或者,将来自上一个时间步的预测得到的词元作为解码器的当前输入。

def train_seq2seq(net, data_iter, lr, num_epochs, tgt_vocab, device):
    """训练序列到序列模型"""
    def xavier_init_weights(m):
        if type(m) == nn.Linear:
            nn.init.xavier_uniform_(m.weight)
        if type(m) == nn.GRU:
            for param in m._flat_weights_names:
                if "weight" in param:
                    nn.init.xavier_uniform_(m._parameters[param])

    # net就是encoder-decoder
    net.apply(xavier_init_weights)
    net.to(device)
    optimizer = torch.optim.Adam(net.parameters(), lr=lr)
    loss = MaskedSoftmaxCELoss()
    net.train()
    animator = d2l.Animator(xlabel='epoch', ylabel='loss',
                     xlim=[10, num_epochs])
    for epoch in range(num_epochs):
        timer = d2l.Timer()
        metric = d2l.Accumulator(2)  # 训练损失总和,词元数量
        for batch in data_iter:
          # batch中有源句子,源句子的valid_len,目标句子,目标句子的valid_len
            optimizer.zero_grad()
            X, X_valid_len, Y, Y_valid_len = [x.to(device) for x in batch]
            # bos:begin of sentence:源句子要翻译需要这个标志
            bos = torch.tensor([tgt_vocab['<bos>']] * Y.shape[0],
                          device=device).reshape(-1, 1)
            # dec_input 就是吧bos和Y(target)里面的除最后一项组合在一起
            dec_input = torch.cat([bos, Y[:, :-1]], 1)  # 强制教学
            # net的输入是编码器输入、解码器输入、编码器有效长度
            Y_hat, _ = net(X, dec_input, X_valid_len)
            # 计算loss的时候,因为y的填充不要算loss,所以传入Y_valid_len告诉非填充部分
            l = loss(Y_hat, Y, Y_valid_len)
            l.sum().backward()	# 损失函数的标量进行“反向传播”
            d2l.grad_clipping(net, 1)
            num_tokens = Y_valid_len.sum()
            optimizer.step()
            with torch.no_grad():
                metric.add(l.sum(), num_tokens)
        if (epoch + 1) % 10 == 0:
            animator.add(epoch + 1, (metric[0] / metric[1],))
    print(f'loss {metric[0] / metric[1]:.3f}, {metric[1] / timer.stop():.1f} '
        f'tokens/sec on {str(device)}')

现在,在机器翻译数据集上,我们可以 创建和训练一个循环神经网络“编码器-解码器”模型用于序列到序列的学习。

embed_size, num_hiddens, num_layers, dropout = 32, 32, 2, 0.1
batch_size, num_steps = 64, 10 # 句子长度为10
lr, num_epochs, device = 0.005, 300, d2l.try_gpu()

train_iter, src_vocab, tgt_vocab = d2l.load_data_nmt(batch_size, num_steps)
encoder = Seq2SeqEncoder(len(src_vocab), embed_size, num_hiddens, num_layers,
                        dropout)
decoder = Seq2SeqDecoder(len(tgt_vocab), embed_size, num_hiddens, num_layers,
                        dropout)
# 用encoder和decoder做出net
net = d2l.EncoderDecoder(encoder, decoder)
train_seq2seq(net, train_iter, lr, num_epochs, tgt_vocab, device)

运行结果:

训练的速度很快,是因为encoder和decoder都是一个RNN,长度为10,总共就2个RNN;也能看做是一个长度为20的RNN。

在这里插入图片描述

7.5 预测

为了采用一个接着一个词元的方式预测输出序列, 每个解码器当前时间步的输入都将来自于前一时间步的预测词元。 与训练类似,序列开始词元(“< bos>”) 在初始时间步被输入到解码器中。 该预测过程如 图所示, 当输出序列的预测遇到序列结束词元(“< eos>”)时,预测就结束了。

在这里插入图片描述

使用循环神经网络编码器-解码器逐词元地预测输出序列。

# 之前训练的时候,在做解码器的输入和输出时,输入用的是<bos>+真实的target句子
# 而预测的时候我们是不知道真实句子的,所以会有区别
def predict_seq2seq(net, src_sentence, src_vocab, tgt_vocab, num_steps,
                    device, save_attention_weights=False):
    """序列到序列模型的预测"""
    # 在预测时将net设置为评估模式
    net.eval()
    # 把 源句子+<eos> 转换为idx
    src_tokens = src_vocab[src_sentence.lower().split(' ')] + [
        src_vocab['<eos>']]
    # 有效长度
    enc_valid_len = torch.tensor([len(src_tokens)], device=device)
    # 对源句子进行填充和截取
    src_tokens = d2l.truncate_pad(src_tokens, num_steps, src_vocab['<pad>'])
    # 添加批量轴
    enc_X = torch.unsqueeze(
        torch.tensor(src_tokens, dtype=torch.long, device=device), dim=0)
    enc_outputs = net.encoder(enc_X, enc_valid_len)
    # 至此,以上代码都是encoder部分
    dec_state = net.decoder.init_state(enc_outputs, enc_valid_len)
    # 添加批量轴
    # 这里和之前有区别,之前给的是<bos>+目标句子,而在这里,就是给<bos>
    dec_X = torch.unsqueeze(torch.tensor(
        [tgt_vocab['<bos>']], dtype=torch.long, device=device), dim=0)
    output_seq, attention_weight_seq = [], []
    for _ in range(num_steps): # 预测n步
        # 每一步都往decoder中放入dec_X和dec_state
        # 第一次循环的dec_X就是<bos>
        # 输出Y和更新的state
        Y, dec_state = net.decoder(dec_X, dec_state)
        # 我们使用具有预测最高可能性的词元,作为解码器在下一时间步的输入
        # dim=2表示的是vocab维,此时的dec_X是作为下一步的输入
        dec_X = Y.argmax(dim=2)
        # 因为dec_X的维度比较高,通过squeeze
        pred = dec_X.squeeze(dim=0).type(torch.int32).item()
        # 保存注意力权重(稍后讨论)
        if save_attention_weights:
            attention_weight_seq.append(net.decoder.attention_weights)
        # 一旦序列结束词元被预测,输出序列的生成就完成了
        if pred == tgt_vocab['<eos>']:
            break
        # 没有预测结束,就把预测结果放入output_seq
        output_seq.append(pred)
    # 把预测的output_seq通过to_tokens把token(词元)查出来,并且用空格拼接,就能变成一句话了
    return ' '.join(tgt_vocab.to_tokens(output_seq)), attention_weight_seq

7.6 预测序列的评估

在这里插入图片描述

BLEU的代码实现如下:

def bleu(pred_seq, label_seq, k):
    """计算BLEU"""
    pred_tokens, label_tokens = pred_seq.split(' '), label_seq.split(' ')
    len_pred, len_label = len(pred_tokens), len(label_tokens)
    # 公式的第一部分
    score = math.exp(min(0, 1 - len_label / len_pred))
    for n in range(1, k + 1): # n-gram,从1一直算到k元语法
        num_matches, label_subs = 0, collections.defaultdict(int)
        for i in range(len_label - n + 1):
            label_subs[' '.join(label_tokens[i: i + n])] += 1
        for i in range(len_pred - n + 1):
            if label_subs[' '.join(pred_tokens[i: i + n])] > 0:
                num_matches += 1
                label_subs[' '.join(pred_tokens[i: i + n])] -= 1
        score *= math.pow(num_matches / (len_pred - n + 1), math.pow(0.5, n))
    return score

最后,利用训练好的循环神经网络“编码器-解码器”模型, 将几个英语句子翻译成法语,并计算BLEU的最终结果。

engs = ['go .', "i lost .", 'he\'s calm .', 'i\'m home .']
fras = ['va !', 'j\'ai perdu .', 'il est calme .', 'je suis chez moi .']
for eng, fra in zip(engs, fras):
    translation, attention_weight_seq = predict_seq2seq(
        net, eng, src_vocab, tgt_vocab, num_steps, device)
    print(f'{eng} => {translation}, bleu {bleu(translation, fra, k=2):.3f}')

运行结果:

在这里插入图片描述

这节课整个过程可以理解为(个人理解,有问题欢迎指正)【摘自b站评论】:

1.获得训练集样本,将样本转化为embeding矩阵,每一个embeding向量对应一个词,embeding向量的种类有vocab_size个,这些embeding向量重复累积构成了整个文本(二维张量)。代码中的输入X是(batch_size,num_steps,embed_size)意义即:每个词用一个embeding向量表示,这个向量的维度为embed_size,每个时间步有num_steps个词,取batch_size个批量。

2.确定超参数时间步s,时间步长度即为单次输入(英语)和输出(法语)的最大数量。

3.确定批量b,这里是为了优化,以便训练时更快更好地迭代收敛。

4.每次选取b组长度为s的样本,这些样本在encoder中前向传递最终得到一个H,把H和对应的法语张量合并共同作为decoder的输入,后续像rnn一样前向传递,即:将当前词和此时的状态共同作为输入来预测下一个词。

5.预测完成后将output和实际文本对应的张量进行交叉熵计算,计算时只取有效长度避免出现多余的损失值。

6.训练完成后即可输入英语,把输出结果累积得到英语对应的法语翻译,并用bleu衡量翻译的好坏。

8. Q&A

Q1:encoder输出和decoder的输入,拼接和按位相加起来有什么区别吗?

A1: 不能按位加,因为decoder的输入是 embedding size,而encoder的输出是hidden size,上面的代码是取的一样的值,但实际上不能这么做,因为长度不一样。

Q2: 实际句子的长度超过了设定的句子长度,是直接截掉不用还是放到下一个句子?

A2: 截掉不用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/172915.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【网络通信】【电信运营商实战工程师】思科设备篇-网络工程师必备基础知识

电信运营商实战工程师系列文章. 思科设备篇-网络工程师必备基础知识. 文章目录1. 电信运营商网络设备机房2. 认识并管理运营商网络设备3. GNS3 安装与配置4. IPv4地址及子网划分 VLSM-CIDR 详解5. OSI 七层参考模型及进制转换技巧1. 电信运营商网络设备机房 知识点&#xff1a;…

win-bat批处理命令

基本知识 cmd 与 powershel 命令和关键字不区分大小写&#xff0c;变量名区分大小写 DOS 是磁盘操作系统&#xff1b;命令提示符是 DOS 系统的界面中输入 DOS 命令的提示位置&#xff1b;cmd 是系统运行其自带 DOS 的命令 PID 是 processid&#xff08;进程号&#xff09;&am…

36-剑指 Offer 38. 字符串的排列

题目 输入一个字符串&#xff0c;打印出该字符串中字符的所有排列。 你可以以任意顺序返回这个字符串数组&#xff0c;但里面不能有重复元素。 示例: 输入&#xff1a;s "abc" 输出&#xff1a;["abc","acb","bac","bca&quo…

二维前缀和数组二维差分数组

二维前缀和数组&二维差分数组 一维前缀和 用途&#xff1a;快速求出数组中nums[i,j]nums[i,j]nums[i,j]元素之和 定义&#xff1a;sums[i1]sums[i1]sums[i1]为nums数组前iii个元素之和 sums[i1]∑j0inums[j]sums[i 1] \sum _{j0} ^{i}nums[j] sums[i1]j0∑i​nums[j] …

神经网络——day67:Residual Network

Deep Residual Learning for Image RecognitionDeep Residual Learning for Image Recognition1. Introduction2. Related WorkResidual Representations(剩余表示).Shortcut Connections(快捷连接).3. Deep Residual Learning3.1. Residual Learning3.2. Identity Mapping by …

Java项目:学生管理系统

Java项目&#xff1a;学生管理系统一、学生管理系统基础版需求1. 初始菜单2. 学生类&#xff1a;3. 添加功能&#xff1a;4. 删除功能&#xff1a;5. 修改功能&#xff1a;6. 查询功能&#xff1a;代码1. 学生类2. 测试类输出结果a. 添加b. 删除c. 修改d. 查询e. 退出二、学生管…

前端监控 二三事

有必要针对 JS 错误做监控吗&#xff1f; 我们可以先假设不对 JS 错误做监控&#xff0c;试想会出现什么问题&#xff1f; JS 错误可能会导致渲染出错、用户操作意外终止&#xff0c;如果没有 JS 错误监控&#xff0c;开发者完全感知不到线上这些异常情况。特别是像电商、支付…

【2-神经网络优化】北京大学TensorFlow2.0

课程地址&#xff1a;【北京大学】Tensorflow2.0_哔哩哔哩_bilibiliPython3.7和TensorFlow2.1六讲&#xff1a;神经网络计算&#xff1a;神经网络的计算过程&#xff0c;搭建第一个神经网络模型神经网络优化&#xff1a;神经网络的优化方法&#xff0c;掌握学习率、激活函数、损…

7. 字符串str的详细讲解

python3字符串str的使用 (1) 基本使用 [a]. Python 中单引号 和双引号 " 使用完全相同&#xff1b; [b]. 使用三引号(单或双)可以指定一个多行字符串&#xff1b; # 长字符串 print( jkl fsf fs fs )[c]. 反斜杠可以用来转义&#xff0c;使用r(raw)可以让反斜杠…

【LeetCode高频100题-3】冲冲冲(持续更新23.1.19)

文章目录62. 不同路径题意解法1 排列组合解法2 动态规划62. 不同路径 题意 一道数学题&#xff0c;排列组合/小学奥赛题。动态规划不是一般来解决最值问题的吗&#xff0c;这道题为什么会想到dp&#xff1f; 解法1 排列组合 从左上角到右下角&#xff0c;一共要走mn-2步&am…

DEJA_VU3D - Cesium功能集 -完整地图标绘及编辑功能系列预告

前言编写这个专栏主要目的是对工作之中基于Cesium实现过的功能进行整合&#xff0c;有自己琢磨实现的&#xff0c;也有参考其他大神后整理实现的&#xff0c;初步算了算现在有差不多实现小140个左右的功能&#xff0c;后续也会不断的追加&#xff0c;所以暂时打算一周2-3更的样…

【算法】克鲁斯卡尔 (Kruskal) 算法

目录1.概述2.代码实现2.1.并查集2.2.邻接矩阵存储图2.3.邻接表存储图2.4.测试代码3.应用本文参考&#xff1a; 《数据结构教程》第 5 版 李春葆 主编 1.概述 &#xff08;1&#xff09;在一给定的无向图 G (V, E) 中&#xff0c;(u, v) 代表连接顶点 u 与顶点 v 的边&#xf…

【6s965-fall2022】剪枝✂pruningⅠ

模型剪枝的介绍 修剪&#xff0c;消除不必要的知识。DNN的知识可以理解为存在于其权重中。 事实证明&#xff0c;许多 DNN 模型可以被分解为权重张量&#xff0c;而权重张量经常包含统计冗余&#xff08;稀疏性&#xff09;。因此&#xff0c;你可以压缩 DNN 的权重张量&…

[从零开始]用python制作识图翻译器·五

测试 通过以上步骤我们终于实现了系统&#xff0c;现在到了紧张刺激的测试环节。直接运行run.py文件: python run.py ::注意需要进入conda环境稍作等等&#xff0c;我们的系统就运行啦&#xff08;啵唧啵唧&#xff09;。 在使用之前&#xff0c;我们还需要在设置中输入自己的…

使用vscode进行C++代码开发(linux平台)

使用vscode进行C代码开发(linux平台一、插件安装二、常用快捷键三、重要配置文件四、实际例子1. 编译并运行一个含有多个文件夹和文件的代码工程2. 编译并运行一个依赖第三方库的代码工程参考资料一、插件安装 执行 ctrl shift x打开插件窗口&#xff0c;然后搜索c插件&…

鸡格线(map操作)

鸡格线 (nowcoder.com) 题目描述 你有一个长为n的数组a&#xff0c;你需要支持以下两种操作: 1、输入l, r, k&#xff0c;对区间[1,r]中所有数字执行a; f(a;)操作k次(式中等号表示赋值操作)&#xff0c;之中f(z)round(10、c)&#xff0c;round为四舍五入函数。 2、输出当前数组…

缓存一致性问题怎么解决

关于Redis的其他的一些面试问题已经写过了&#xff0c;比如常见的缓存穿透、雪崩、击穿、热点的问题&#xff0c;但是还有一个比较麻烦的问题就是如何保证缓存一致性。对于缓存和数据库的操作&#xff0c;主要有以下两种方式。先删缓存&#xff0c;再更新数据库先删除缓存&…

Java 多线程 笔记

文章目录实现方式1. 通过Thread类2. 通过Runnable接口3. 通过Callable接口线程状态线程方法1. 线程停止2. 线程休眠sleep3. 线程礼让yield4. 线程强制执行join5. 线程状态观测getState6. 线程优先级守护线程&#xff08;daemon线程同步 TODO线程死锁Lock锁&#xff08;可重入锁…

Typora+Gitee+PicGo搭建图床

引言 markdown原则上不建议使用base64内嵌图片&#xff0c;因为太麻烦。 如果只是在本机浏览、编辑的话&#xff0c;那引用相对路径或者绝对路径即可&#xff0c;但是考虑到要发布、分享的情况&#xff0c;使用图床是比较好的解决方案。 本教程可以快速得到一个相对稳定的免…

单片机数据、地址、指令、控制总线结构

数据、地址、指令&#xff1a;之所以将这三者放在一同&#xff0c;是因为这三者的实质都是相同的──数字&#xff0c;或者说都是一串‘0’和‘1’组成的序列。换言之&#xff0c;地址、指令也都是数据。 指令&#xff1a;具体可参考文章 由单片机芯片的设计者规则的一种数字…