NLP深度学习 DAY4:Word2Vec详解:两种模式(CBOW与Skip-gram)

news2025/1/31 1:13:18

用稀疏向量表示文本,即所谓的词袋模型在 NLP 有着悠久的历史。正如上文中介绍的,早在 2001年就开始使用密集向量表示词或词嵌入。Mikolov等人在2013年提出的创新技术是通过去除隐藏层,逼近目标,进而使这些单词嵌入的训练更加高效。虽然这些技术变更本质上很简单,但它们与高效的word2vec配合使用,便能使大规模的词嵌入训练成为可能。

0 前言:词袋模型

首先解释一下什么是词袋模型:

词袋模型(Bag-of-Words, BOW) 是最早、最经典的文本表示方法之一(1940左右出现,甚至比n-gram还要早,我愿称之为原始祖师爷)。它将一段文本看作一个「袋子」:里面盛放了这个文本所含的所有单词,但忽略了单词的顺序、句法结构等信息,只关注单词是否出现以及出现次数(或频率)。这就好比把句子里的单词都抓出来扔进一个袋子,摇匀后再数一数这些单词都有什么、各出现几次。

1.1 典型示例

假设我们的词表是 "I","like","apples","banana",大小 V=4(指的就是一共有4个词)。
有两句话:

  1. “I like apples”
  2. “I like banana apples”

那么在词袋表示下:

  • 对于 “I like apples”:

    1. "I" 出现 1 次
    2. "like" 出现 1 次
    3. "apples"出现 1 次
    4. "banana"出现 0 次
      向量表示可写作 [1, 1, 1, 0]
  • 对于 “I like banana apples”:

    1. "I" 出现 1 次
    2. "like" 出现 1 次
    3. "apples"出现 1 次
    4. "banana"出现 1 次
      向量表示可写作 [1, 1, 1, 1]

可以看到,这种表示只管词的出现情况,不会去记录 “banana”是在“apples”前还是后出现,也不会记录它们之间的距离。这样就得到最纯粹的词袋表示。

一、词向量引入

先来考虑一个问题:如何能将文本向量化呢?听起来比较抽象,我们可以先从人的角度来思考。

如何用一个数值向量描述一个人呢?只用身高或者体重,还是综合其各项指标呢?当然是综合各项指标能更加准确的描述一个人啦,具体什么指标还得看你能收集到什么指标。比如除了常规的身高、体重外,我们还可以用人的性格,从内向到外向设置为从-1到+1,人的性格让“专家”去打分,从而获取人性格的数值化数据。

只要有了向量,就可以用不同方法(欧氏距离、曼哈顿距离、切比雪夫距离、余弦相似度等)来计算两个向量之间的相似度了!

                      

通常来说,向量的维度越高,能提供的信息也就越多,从而计算结果的可靠性就更值得信赖

 现在回到正题,如何描述词的特征?通常都是在词的层面上来构建特征。Word2Vec就是要把词转化为向量。

下图展示了一个50维的词向量:

 假设现在已经拿到了一份训练好的词向量,其中每一个词都表示为50维的向量,如下图所示:

 如果将它们在热度图中显示,结果如下:

 在结果中可以发现,相似的词在特征表达中比较相似,也就是说明词的特征是有实际意义的!

                     

二、词向量模型

在词向量模型中输入和输出是什么?中间这个黑盒又是什么?

如下图所示,在词向量模型中,输入可以是多个词。例如下面所示的,输入是 Thou 和 shalt,模型的任务是预测它们的下一个词是什么。

早期的神经网络的词嵌入方法(word2vec出现之前使用n-gram去训练原始词表里面的300维向量 差不多2001年)

最后一层连接了 SoftMax,所以网络的输出是所有词可能是下一个词的概率。

             

那么有人就会问了,输入是文字,文字怎么输入到神经网络中啊 ?这个问题很好,我们通常会用一个 Embedding 层来解决这个问题。如下图所示,在神经网络初始化的时候,我们会随机初始化一个 N×K 的矩阵,其中 N 是 词典的大小,K 是词向量的维数(一个自行设定的超参数)。然后,我们会用一个 N×N 的矩阵和 N×K 的矩阵相乘,得到一个新的 N×K的矩阵向下进行前向传播。其中,N×N 的矩阵会在输入的文字的对应对角线上设置为1,其余位置均为0。N×K 的矩阵是随机初始化的,通过反向传播进行更新调整。

          

 下面展示了一个例子(假设输入的两个词在词典中的位置是2和3处):

          

三、训练数据构建(还是早期的n-gram模型)

问:我们的训练数据应该从哪找呢?

答:一切具有正常逻辑的语句都可以作为训练数据。如小说、论文等。

如果我们有一个句子,那么我们可以按照下面你的方式构建数据集,选出前三个词,用前两个作为词模型的输入,最后一个词作为词模型输出的目标,继而进行训练。如下图所示: 

 然后,我们还可以将”窗口“往右平移一个词,如下图所示,构造一个新的训练数据

当然,这个”窗口“的宽度也是可以自己设置的,在上例中,窗口宽度设置为 3,也可以设置为 4、5、6 等等

四、Word2vec(2013年)不同模型对比

4.1 CBOW

CBOW的全称是continuous bag of words(连续词袋模型)。其本质也是通过context word(背景词)来预测target word(目标词)。

CBOW之所以叫连续词袋模型,是因为在每个窗口内它也不考虑词序信息,因为它是直接把上下文的词向量相加了,自然就损失了词序信息。CBOW抛弃了词序信息,指的就是在每个窗口内部上下文直接相加而没有考虑词序。

用 CBOW 构造数据集的例子1如下图所示:

                           

例子2:

假设我们有一个简单的句子:

“The cat sits on the mat”

  • 选择“sits”作为目标词(w_t ),窗口大小设置为 2,意味着它的上下文是:

    • 左边两个词: “The”, “cat”
    • 右边两个词: “on”, “the” (如果只算到 “on the” 可能这样)
  • 构建训练样本时,就会出现:

    • 输入:上下文词“[The, cat, on, the]”各自的向量,合并/平均后得到 vcontext。
    • 输出:目标词“sits”在词表上的概率。

对于句子中的其他位置,也会类似地滑动窗口,把每个词当作目标词,然后获取它的上下文词,构建训练样本。例如,把“cat”当目标词时,上下文就是 [The], [sits, on] (在超出边界时,窗口不够可特殊处理)。

最大缺点:为什么说 “CBOW 不考虑词序”(之所以叫连续词袋模型)

  • 在同一个窗口里,CBOW 只是把上下文词向量进行相加/平均
  • 这样做后,我们无法区分“cat sits on the mat” 和 “on the cat sits the mat” 这样的词序变化,因为最终得到的上下文向量是一样的。
  • 这就是“Bag of Words”的含义:视上下文词为一个无序的集合

尽管 CBOW 在窗口内部抛弃了词序信息,但它仍然是“连续”地按照窗口来遍历整篇文本(不会跨句子或任意地远距离取词),所以叫 “Continuous Bag of Words”。

4.2 Skip-gram 模型

Skip-gram 模型和 CBOW 相反,Skip-gram 模型的输入是一个词汇,输出则是该词汇的上下文。如下图所示:

                   

下面举一个例子,设”窗口“宽度为5,每次用”窗口“的第三个也就是中的词汇作为输入,其余上下文作为输出,分别构建数据集,如下图所示: 

       

 然后用构建好的数据集丢给词模型进行训练,如下图所示:

如果一个语料库稍微大一点,可能的结果就太多了,最后一层 SoftMax 的计算就会很耗时,有什么办法来解决吗?

下面提出了一个初始解决方案:假设,传统模型中,我们输入 not ,希望输出是 thou,但是由于语料库庞大,最后一层 SoftMax 太过耗时,所以我们可以改为:将 not 和 thou 同时作为输入,做一个二分类问题,类别 1 表示 not 和 thou 是邻居,类别 0 表示它们不是邻居。

                    

上面提到的解决方案出发点非常好,但是由于训练集本来就是用上下文构建出来的,所以训练集构建出来的标签全为 1 ,无法较好的进行训练,如下图所示: 

 改进方案:加入一些负样本(负采样模型),一般负采样个数为 5 个就好,负采样示意图如下图所示:

最大缺点:和上面的CBOW一样无法考虑词序

  • Skip-gram输入是目标词,输出是预测其上下文词。与 CBOW 类似,上下文词也被视为独立的个体,不关心它们的顺序或位置

  • 例如,对于目标词 "sat",模型会尝试预测周围的词(如 "The", "cat", "on", "the"),但预测过程中这些词的顺序无关紧要。

4.3 CBOW 和 Skip-gram 对比 

 

五、词向量训练过程

5.1 初始化词向量矩阵

             

5.2 训练模型

通过神经网络反向传播来计算更新,此时不光更新权重参数矩阵W,也会更新输入数据

         

训练完成后,我们就得到了比较准确的 Word Embeddings,从而得到了每个词的向量表示!!! 

六、Python 代码实战

6.1 Model

from torch import nn


class DNN(nn.Module):
    def __init__(self, vocabulary_size, embedding_dim):
        super(DNN, self).__init__()

        self.embedding = nn.Linear(vocabulary_size, embedding_dim, bias=False)
        print("embedding_size:", list(self.embedding.weight.size()))

        self.layers = nn.Sequential(
            nn.Linear(vocabulary_size * embedding_dim, embedding_dim // 2),
            nn.LeakyReLU(),
            nn.Linear(embedding_dim // 2, 4),
            nn.LeakyReLU(),
            nn.Linear(4, 1),
        )

        # Mean squared error loss
        self.criterion = nn.MSELoss()
        # self.criterion = nn.CrossEntropyLoss()

    def forward(self, x):
        x = self.embedding(x)
        x = x.view(x.size()[0], -1)
        x = self.layers(x)
        x = x.squeeze(1)
        return x

    def cal_loss(self, pred, target):
        """ Calculate loss """
        return self.criterion(pred, target)

6.2 DataSet

import random

import numpy as np
from torch.utils.data import Dataset


class MyDataSet(Dataset):
    def __init__(self, features, labels):
        self.features = features
        self.labels = labels

    def __getitem__(self, index):
        return self.features[index], self.labels[index]

    def __len__(self):
        return len(self.features)


def get_data_set(data_path, window_width, window_step, negative_sample_num):
    with open(data_path, 'r', encoding='utf-8') as file:
        document = file.read()
        document = document.replace(",", "").replace("?", "").replace(".", "").replace('"', '')
        data = document.split(" ")
        print(f"数据中共有 {len(data)} 个单词")

        # 构造词典
        vocabulary = set()
        for word in data:
            vocabulary.add(word)
        vocabulary = list(vocabulary)
        print(f"词典大小为 {len(vocabulary)}")

        # index_dict
        index_dict = dict()
        for index, word in enumerate(vocabulary):
            index_dict[word] = index

        # 开始滑动窗口,构造数据
        features = []
        labels = []
        neighbor_dict = dict()

        for start_index in range(0, len(data), window_step):
            if start_index + window_width - 1 < len(data):
                mid_index = int((start_index + start_index + window_width - 1) / 2)
                for index in range(start_index, start_index + window_width):
                    if index != mid_index:
                        feature = np.zeros((len(vocabulary), len(vocabulary)))
                        feature[index_dict[data[index]]][index_dict[data[index]]] = 1
                        feature[index_dict[data[mid_index]]][index_dict[data[mid_index]]] = 1
                        features.append(feature)
                        labels.append(1)
                        if data[mid_index] in neighbor_dict.keys():
                            neighbor_dict[data[mid_index]].add(data[index])
                        else:
                            neighbor_dict[data[mid_index]] = {data[index]}
        # 负采样
        for _ in range(negative_sample_num):
            random_word = vocabulary[random.randint(0, len(vocabulary))]
            for word in vocabulary:
                if random_word not in neighbor_dict.keys() or word not in neighbor_dict[random_word]:
                    feature = np.zeros((len(vocabulary), len(vocabulary)))
                    feature[index_dict[random_word]][index_dict[random_word]] = 1
                    feature[index_dict[word]][index_dict[word]] = 1
                    features.append(feature)
                    labels.append(0)
                    break
        # 返回dataset和词典
        return MyDataSet(features, labels), vocabulary, index_dict

6.3 Main

import random
from math import sqrt

import numpy as np
import torch
from torch.utils.data import DataLoader

from Python.DataSet import get_data_set
from Python.Model import DNN


def same_seed(seed):
    """
    Fixes random number generator seeds for reproducibility
    固定时间种子。由于cuDNN会自动从几种算法中寻找最适合当前配置的算法,为了使选择的算法固定,所以固定时间种子
    :param seed: 时间种子
    :return: None
    """
    torch.backends.cudnn.deterministic = True  # 解决算法本身的不确定性,设置为True 保证每次结果是一致的
    torch.backends.cudnn.benchmark = False  # 解决了算法选择的不确定性,方便复现,提升训练速度
    np.random.seed(seed)  # 按顺序产生固定的数组,如果使用相同的seed,则生成的随机数相同, 注意每次生成都要调用一次
    torch.manual_seed(seed)  # 手动设置torch的随机种子,使每次运行的随机数都一致
    random.seed(seed)
    if torch.cuda.is_available():
        # 为GPU设置唯一的时间种子
        torch.cuda.manual_seed(seed)
        torch.cuda.manual_seed_all(seed)


def train(model, train_loader, config):
    # Setup optimizer
    optimizer = getattr(torch.optim, config['optimizer'])(
        model.parameters(), **config['optim_hyper_paras'])

    device = config['device']
    epoch = 0
    while epoch < config['n_epochs']:
        model.train()  # set model to training mode
        loss_arr = []
        for x, y in train_loader:  # iterate through the dataloader
            optimizer.zero_grad()  # set gradient to zero
            x, y = x.to(device).to(torch.float32), y.to(device).to(torch.float32)  # move data to device (cpu/cuda)
            pred = model(x)  # forward pass (compute output)
            mse_loss = model.cal_loss(pred, y)  # compute loss
            mse_loss.backward()  # compute gradient (backpropagation)
            optimizer.step()  # update model with optimizer
            loss_arr.append(mse_loss.item())
        print(f"epoch: {epoch}/{config['n_epochs']} , loss: {np.mean(loss_arr)}")
        epoch += 1

    print('Finished training after {} epochs'.format(epoch))


def find_min_distance_word_vector(cur_i, vector, embeddings, vocabulary):
    def calc_distance(v1, v2):
        # 计算欧式距离
        distance = 0
        for i in range(len(v1)):
            distance += sqrt(pow(v1[i] - v2[i], 2))
        return distance

    min_distance = None
    min_i = -1
    for i, word in enumerate(vocabulary):
        if cur_i != i:
            distance = calc_distance(vector, embeddings[i].tolist())
            if min_distance is None or min_distance > distance:
                min_distance = distance
                min_i = i
    return min_i


if __name__ == '__main__':
    data_path = './data/data.txt'
    config = {
        'seed': 3407,  # Your seed number, you can pick your lucky number. :)
        'device': 'cuda' if torch.cuda.is_available() else 'cpu',
        'n_epochs': 20,  # Number of epochs.
        'batch_size': 64,
        'optimizer': 'Adam',
        'optim_hyper_paras': {  # hyper-parameters for the optimizer (depends on which optimizer you are using)
            'lr': 0.001,  # learning rate of optimizer
        },
        'embedding_dim': 6,  # 词向量长度
        'window_width': 5,  # 窗口的宽度
        'window_step': 2,  # 窗口滑动的步长
        'negative_sample_num': 10  # 要增加的负样本个数
    }

    same_seed(config['seed'])

    data_set, vocabulary, index_dict = get_data_set(data_path, config['window_width'], config['window_step'],
                                                    config['negative_sample_num'])
    train_loader = DataLoader(data_set, config['batch_size'], shuffle=True, drop_last=False, pin_memory=True)

    model = DNN(len(vocabulary), config['embedding_dim']).to(config['device'])

    train(model, train_loader, config)

    # 训练完,看看embeddings,展示部分词的词向量,并找到离它最近的词的词向量
    embeddings = torch.t(model.embedding.weight)
    for i in range(10):
        print('%-50s%s' % (f"{vocabulary[i]} 的词向量为 :", str(embeddings[i].tolist())))
        min_i = find_min_distance_word_vector(i, embeddings[i].tolist(), embeddings, vocabulary)
        print('%-45s%s' % (
            f"离 {vocabulary[i]} 最近的词为 {vocabulary[min_i]} , 它的词向量为 :", str(embeddings[min_i].tolist())))
        print('-' * 200)

七、根据上面的代码举个例子 

一、数据处理流程(以示例文本说明)

假设输入文件 data.txt 内容为:

I love machine learning because it is interesting.
1. 文本预处理
  • 清洗:移除标点(, ? . "),处理后得到:

    I love machine learning because it is interesting
  • 分词:按空格切分为单词列表:

    data = ["I", "love", "machine", "learning", "because", "it", "is", "interesting"]
2. 构建词汇表
  • 去重后得到词汇表(假设顺序固定):

    vocabulary = ["I", "love", "machine", "learning", "because", "it", "is", "interesting"]
  • 索引映射 index_dict

    {"I":0, "love":1, "machine":2, "learning":3, "because":4, "it":5, "is":6, "interesting":7}
3. 滑动窗口生成正样本

假设窗口宽度 window_width=5,步长 window_step=2

  • 窗口划分

    • 窗口1: ["I", "love", "machine", "learning", "because"],中心词是第2个(machine,索引2)。

    • 窗口内上下文词:I(索引0)、love(索引1)、learning(索引3)、because(索引4)。

    • 每个上下文词与中心词生成一个正样本。

  • 特征矩阵示例(中心词 machine 和上下文词 love):

    # 特征矩阵形状 [8,8](词汇表大小=8)
    feature = np.zeros((8,8))
    feature[1][1] = 1  # 上下文词 "love" 的对角线置1
    feature[2][2] = 1  # 中心词 "machine" 的对角线置1

    该样本标签为 1

4. 负采样生成负样本

随机选择不共现的词对(例如 machine 和 it):

feature = np.zeros((8,8))
feature[2][2] = 1  # "machine"
feature[5][5] = 1  # "it"

标签为 0


二、模型架构详解(DNN 类)

1. Embedding 层
  • 定义nn.Linear(vocab_size, embed_dim, bias=False)

  • 作用:将输入矩阵的每个词索引转换为嵌入向量。

  • 输入形状[batch_size, vocab_size, vocab_size]

  • 输出形状[batch_size, vocab_size, embed_dim]

    • 矩阵乘法等价于对每个词进行线性变换。

2. 全连接层
  • 结构

    nn.Sequential(
      nn.Linear(vocab_size * embed_dim, embed_dim//2),  # 展平后输入
      nn.LeakyReLU(),
      nn.Linear(embed_dim//2, 4),
      nn.LeakyReLU(),
      nn.Linear(4, 1)
    )
  • 作用:将展平后的嵌入向量映射到标量输出。

3. 前向传播流程

以单个样本 [8,8](词汇表大小=8)为例:

  1. 输入矩阵[1, 8, 8](batch_size=1)

  2. Embedding 层:与 [8, embed_dim] 权重矩阵相乘,得到 [1, 8, embed_dim]

  3. Reshape:展平为 [1, 8*embed_dim]

  4. 全连接层:逐步降维到标量输出。


三、训练过程(以示例说明)

1. 数据加载
  • Dataset:包含特征矩阵和标签。

  • DataLoader:按批次加载数据(batch_size=64)。

2. 损失函数与优化器
  • 损失函数MSELoss,优化目标使正样本输出接近1,负样本接近0。

  • 优化器Adam,学习率 0.001

3. 训练循环
  • 前向传播:输入特征矩阵,计算预测值。

  • 反向传播:根据 MSE 损失更新参数。


四、词向量可视化与最近邻查找

1. 提取词向量
  • 权重矩阵embeddings = torch.t(model.embedding.weight),形状 [vocab_size, embed_dim]

  • 示例输出

    "machine" 的词向量为 : [0.12, -0.45, 0.78, ...]
2. 计算最近邻
  • 欧式距离:遍历所有词向量,找到距离最小的非自身词。

  • 示例结果

    离 "machine" 最近的词为 "learning" ,距离 0.89 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2286684.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【Linux】 冯诺依曼体系与计算机系统架构全解

Linux相关知识点可以通过点击以下链接进行学习一起加油&#xff01;初识指令指令进阶权限管理yum包管理与vim编辑器GCC/G编译器make与Makefile自动化构建GDB调试器与Git版本控制工具Linux下进度条 冯诺依曼体系是现代计算机设计的基石&#xff0c;其统一存储和顺序执行理念推动…

【最后203篇系列】005 -QTV200 Online

说明 借着春节休假&#xff0c;把这部分完工&#xff0c;然后2025年将正式的把量化研究的成果进行产品化输出。 首先&#xff0c;我会将策略的执行从脚本挪到服务。做法是将策略的逻辑放在微服务里&#xff0c;作为一个接口&#xff0c;而由sniffer来触发策略执行。我想这样策…

Midjourney基础-常用修饰词+权重的用法大全

用好修饰词很关键 Midjourney要用除了掌握好提示词的写法&#xff0c;按照上一篇《做Midjourney最好图文教程-提示词公式以及高级参数讲解》画面主体 场景氛围 主体行为 构图方式 艺术风格 图像质量。 要画出有质感的内容我们必须要掌握好“修饰词”&#xff0c;这些修饰…

Deepseek的RL算法GRPO解读

在本文中&#xff0c;我们将深入探讨Deepseek采用的策略优化方法GRPO&#xff0c;并顺带介绍一些强化学习&#xff08;Reinforcement Learning, RL&#xff09;的基础知识&#xff0c;包括PPO等关键概念。 策略函数&#xff08;policy&#xff09; 在强化学习中&#xff0c; a…

神经网络和深度学习

应用 类型 为什么近几年飞速发展 数据增长&#xff0c;算力增长&#xff0c;算法革新 逻辑回归 向量化 浅层神经网络(Shallow neural network) 单条训练数据前向传播计算表达式 batch训练数据前向传播计算表达式 反向传播计算表达式 参数随机初始化 不能全部设为0 原因是同一…

python学opencv|读取图像(四十八)使用cv2.bitwise_xor()函数实现图像按位异或运算

【0】基础定义 按位与运算&#xff1a;两个等长度二进制数上下对齐&#xff0c;全1取1&#xff0c;其余取0。 按位或运算&#xff1a;两个等长度二进制数上下对齐&#xff0c;有1取1&#xff0c;其余取0。 按位取反运算&#xff1a;一个二进制数&#xff0c;0变1,1变0。 按…

关联传播和 Python 和 Scikit-learn 实现

文章目录 一、说明二、什么是 Affinity Propagation。2.1 先说Affinity 传播的工作原理2.2 更多细节2.3 传播两种类型的消息2.4 计算责任和可用性的分数2.4.1 责任2.4.2 可用性分解2.4.3 更新分数&#xff1a;集群是如何形成的2.4.4 估计集群本身的数量。 三、亲和力传播的一些…

【etcd】二进制安装etcd

由于生产服务器不能使用yum 安装 etcd ,或者 安装的etcd 版本比较老&#xff0c;这里介绍一个使用二进制安装的方式。 根据安装文档编写一个下载脚本即可 &#xff1a; 指定 etcd 的版本 提供了两个下载地址 一个 Google 一个 Github&#xff0c; 不过都需要外网 注释掉删除保…

企业知识管理平台助力企业创新与竞争力提升的有效策略探讨

内容概要 在当今快速发展的商业环境中&#xff0c;企业知识管理平台的构建显得至关重要。它不仅为企业的知识资源提供了一个整合与分享的空间&#xff0c;还为企业的创新与竞争力提升提供了策略支持。本文将深入探讨企业知识管理平台的关键要素&#xff0c;包括知识获取、存储…

Java多线程——线程安全性

线程安全性 当多个线程访问某个类时&#xff0c;这个类始终都能表现出正确的行为&#xff0c;那么就称这个类是线程安全的 public class A {public void test(){//....} }无状态对象是线程安全的&#xff0c;其不包含任何域&#xff0c;也不包含任何对其他类中域的引用&#…

Windows安装Miniconda和PySide6以及配置PyCharm

目录 1. 选择Miniconda 2. 下载Miniconda 3. 安装Miniconda 4. 在base环境下创建pyside6环境 5. 安装pyside6环境 6. 配置PyCharm环境 7. 运行第一个程序效果 1. 选择Miniconda 选择Miniconda而没有选择Anaconda&#xff0c;是因为它是一个更小的Anaconda发行版&#x…

C++传送锚点的内存寻址:内存管理

文章目录 1.C/C内存分布回顾2.C内存管理2.1 内存申请2.2 operator new与operator delete函数2.3 定位new表达式 3.关于内存管理的常见知识点3.1 malloc/free和new/delete的区别3.2 内存泄漏 希望读者们多多三连支持小编会继续更新你们的鼓励就是我前进的动力&#xff01; 继C语…

循序渐进kubernetes-RBAC(Role-Based Access Control)

文章目录 概要Kubernetes API了解 Kubernetes 中的 RBACRoles and Role Bindings:ClusterRoles and ClusterRoleBindings检查访问权限&#xff1a;外部用户结论 概要 Kubernetes 是容器化应用的强大引擎&#xff0c;但仅仅关注部署和扩展远远不够&#xff0c;集群的安全同样至…

《从因果关系的角度学习失真不变表示以用于图像恢复》学习笔记

paper&#xff1a;2303.06859 GitHub&#xff1a;lixinustc/Causal-IR-DIL: Distortion invariant feature learning for image restoration from a causality perspective 2023 CVPR 目录 摘要 1、介绍 1.1 图像修复任务 1.2 失真不变表示学习 1.3 因果效应估计的挑战…

亚博microros小车-原生ubuntu支持系列:16 机器人状态估计

本来想测试下gmapping建图&#xff0c;但是底层依赖了yahboomcar_bringup做底层的数据处理&#xff0c;所以先把依赖的工程导入。 程序启动后&#xff0c;会订阅imu和odom数据&#xff0c;过滤掉一部分的imu数据后&#xff0c;然后与odom数据进行融合&#xff0c;最后输出一个…

Greenplum临时表未清除导致库龄过高处理

1.问题 Greenplum集群segment后台日志报错 2.回收库龄 master上执行 vacuumdb -F -d cxy vacuumdb -F -d template1 vacuumdb -F -d rptdb 3.回收完成后检查 仍然发现segment还是有库龄报警警告信息发出 4.检查 4.1 在master上检查库年龄 SELECT datname, datfrozen…

【Unity3D】实现横版2D游戏角色二段跳、蹬墙跳、扶墙下滑

目录 一、二段跳、蹬墙跳 二、扶墙下滑 一、二段跳、蹬墙跳 GitHub - prime31/CharacterController2D 下载工程后直接打开demo场景&#xff1a;DemoScene&#xff08;Unity 2019.4.0f1项目环境&#xff09; Player物体上的CharacterController2D&#xff0c;Mask添加Wall层…

mybatis(134/134)完结

一级缓存&#xff08;默认情况下开启&#xff09;同一个sqlsession中执行相同的查询语句走一级缓存 二级缓存 &#xff1a;同一个sqlsessionfactory&#xff0c;sqlsession关闭了才会将一级缓存提交到二级缓存中 外部编写的缓存 PageHelper插件&#xff1a;方便进行分页&#x…

PaddleSeg 从配置文件和模型 URL 自动化运行预测任务

git clone https://github.com/PaddlePaddle/PaddleSeg.git# 在ipynb里面运行 cd PaddleSegimport sys sys.path.append(/home/aistudio/work/PaddleSeg)import os# 配置文件夹路径 folder_path "/home/aistudio/work/PaddleSeg/configs"# 遍历文件夹&#xff0c;寻…

BLE透传方案,IoT短距无线通信的“中坚力量”

在物联网&#xff08;IoT&#xff09;短距无线通信生态系统中&#xff0c;低功耗蓝牙&#xff08;BLE&#xff09;数据透传是一种无需任何网络或基础设施即可完成双向通信的技术。其主要通过简单操作串口的方式进行无线数据传输&#xff0c;最高能满足2Mbps的数据传输速率&…