基于Pytorch搭建分布式训练环境

news2024/10/6 16:19:24

Pytorch系列


文章目录

  • Pytorch系列
  • 前言
  • 一、DDP是什么
  • 二、DPP原理
  • terms、nodes 和 ranks等相关术语解读
  • DDP 的局限性
  • 为什么要选择 DDP 而不是 DP
  • 代码演示
    • 1. 在一个单 GPU 的 Node 上进行训练(baseline)
    • 2. 在一个多 GPU 的 Node 上进行训练
    • 临门一脚: 在多个 Node 上进行训练
    • 4 使用集群 (SLURM)


前言

随着近几年大模型的问世,传统的单机单卡模式已经无法满足超大模型进行训练的要求,如何更好地、更轻松地利用多个 GPU 资源进行模型训练成为了人工智能领域的热门话题。我们今天为大家带来的这篇文章详细介绍了一种名为 DDP(Distributed Data Parallel)的并行训练技术,作者认为这项技术既高效又易于实现。
(1) DDP 的核心思想是将模型和数据复制到多个 GPU 上并行训练,然后汇总平均梯度。
(2) DDP 比传统的 DP 模式更加高效,可以轻松扩展到多节点,同时也介绍了 DDP 的局限性。
(3) DDP 的 Python 实现非常简洁,主要分为进程初始化、设置 Distributed DataLoader(分布式数据加载器)和模型训练与测试三步。
(4) 文中还解析了 DDP 中 Node、Master Node、Local Rank、Global Rank 等关键术语的具体含义。
(5) 提供了从单 GPU 到单节点多 GPU 再到多节点场景的 DDP 应用案例源代码.

DDP 要求将整个模型加载到一个GPU上,这使得大模型的训练需要使用额外复杂的设置进行模型分片。期待未来有更多简单、高效、易用,还能满足大模型场景的模型训练并行技术出现!

一、DDP是什么

本文将介绍一种名为 DDP (Distributed Data Parallel)的技术,使用这种技术可以实现同时在多个 GPU 上训练模型。我上学的时候只能用云服务平台的 GPU 进行训练。然而,当我进入企业上班后,情况就不同了。如果你所在的公司在人工智能领域投入了大量资源,特别是如果你在一家科技巨头公司工作,那么很可能你可以随时使用大量的GPU集群。本教程旨在让读者掌握如何同时利用多个GPU,实现快速高效的训练。而且,也许会让你惊讶的是,这种技术比你想象的还要简单!在你继续阅读本文之前,建议先去充分了解 PyTorch(一种机器学习框架)相关内容,包括其核心组件,如Datasets、 DataLoaders、Optimizers、CUDA 和 Training loop。一开始,我也认为 DDP 是一种复杂的、几乎无法实现的技术,认为它需要一个庞大的技术团队来建立必要的基础设施。不过,我向你们保证,DDP不仅直观易懂,而且简洁明了,只需要几行代码就可以实现。让我们一起踏上这段充满启迪的旅程吧!

二、DPP原理

分布式数据并行(DDP)是一个简单明了的概念。假如我们拥有一个由 4 个 GPU 组成的 GPU 集群。在DDP中,我们将相同的模型复制到每个GPU上进行训练。每个GPU都有自己的优化器,用于更新模型的参数。重点在于数据的划分。(译者注:通常情况下,我们将训练数据划分为多个 mini-batches,然后将这些 mini-batches 分配给多个GPU进行并行处理。每个GPU独立地计算梯度和更新参数,然后将结果同步到其他GPU上。)
在这里插入图片描述
如果你对深度学习比较熟悉,应该会知道 DataLoader,这是一种将数据集划分成不同 batches 的工具。通常情况下,我们会将整个数据集分成多个 batches ,模型在每个 batch 上进行计算,并根据计算结果更新模型参数。DDP 进一步细化了这一过程,将每个 batch 划分为 “sub-batches”。实质上,每个模型副本都会处理 primary batch 的一个部分,从而让每个 GPU 都能独立地计算梯度,并根据其处理的数据片段来更新模型的参数。在DDP中,我们通过一种名为 DistributedSampler 的工具将 batch 分成 sub-batches ,如下图所示:
在这里插入图片描述

在将每个 sub-batch 分配给各个GPU后,每个GPU都会独立地对其所处理的数据进行计算,并计算出自己独特的梯度(gradient)。
在这里插入图片描述

这就是 DDP 的神奇之处。在更新模型参数之前,需要汇总每个 GPU 计算出的梯度,以便每个 GPU 都能获得整个数据 batch 上计算出的平均梯度。具体做法是将所有 GPU 的梯度之和取平均值。例如,如果有 4 个 GPU,那么某个特定模型参数的平均梯度就是 4 个 GPU 上该参数的梯度之和除以 4。DDP 使用 NCCL 或 Gloo 后端(NCCL 针对英伟达(NVIDIA) GPU 进行了优化,而 Gloo 则更为通用)来高效地在 GPU 之间进行通信和将梯度平均。
在这里插入图片描述

terms、nodes 和 ranks等相关术语解读

在深入代码之前,先了解 DDP 技术相关术语的含义十分重要。来解释一下这些术语的含义:
Node:可将 Node 视为一台配备了多个 GPU 的高性能计算机。集群(cluster)并不是简单地将一堆 GPU 拼凑在一起。相反,它们被组织成 Groups 或 Nodes。例如,一个 Node 可以容纳 8 个 GPU。
Master Node:在 multi-node(多节点)环境中,通常需要有一个 Node 负责协调工作。这个“Master Node”处理诸如同步、启动模型复制、监控模型加载和管理日志条目等任务。如果没有 Master Node ,每个 GPU 都会独立生成日志,从而导致混乱。
Local Rank:术语“ Rank ” 可以类比为 ID 或位置。Local Rank 指的是 GPU 在其特定 Node(或计算机)中的位置或 ID。它是“ Local ”的,因为它仅限于这台特定的设备。
Global Rank:从全局角度来看,Global Rank 是指 GPU 在所有可用 Node 中的标识。这是一个唯一的标识符,与设备无关。World Size:所有 Node 上可用的所有 GPU 数量。简单来说,就是节点数和每个节点中GPU数量的乘积。从这个角度来看,如果只使用一台机器,情况就会简单明了,因为 Local Rank 等同于 Global Rank。可以用一张图片来说明这一点:
在这里插入图片描述
在这里插入图片描述

DDP 的局限性

分布式数据并行(DDP)在许多深度学习工作流中都起到了变革性的作用,但了解其局限性也很重要。DDP 的局限性主要在于其内存消耗。使用 DDP 时,每个 GPU 都会加载模型副本、优化器和对应 batch 的数据副本。GPU 的内存大小通常从几 GB 到 80GB 不等。对于较小的模型,使用单个 GPU 都不是问题。但是,当涉及大语言模型(LLM)领域或类似于 GPT 的架构时,单个 GPU 的内存可能就不够用了。在计算机视觉领域,虽然有大量轻量级模型,但当 batch sizes 增加时,特别是在涉及三维图像或物体检测任务的场景下,就会面临挑战。全分片数据并行(Fully Sharded Data Parallel,FSDP)应运而生了。FSDP不仅将数据分布到不同的GPU上,还将模型和优化器的状态也分散到各个 GPU 的内存中。虽然这种方法看起来很好,但 FSDP 增多了 GPU 之间的通信,可能会降低训练速度。

总之:如果您的模型及其相应的 batch 使用单个 GPU 的内存即可满足需求,那么 DDP 技术就是您的最佳选择,因为它的特点是速度快。对于需要使用更多内存的大型模型,FSDP 是更合适的选择。不过,它是通过牺牲速度来换取内存的。

为什么要选择 DDP 而不是 DP

在 PyTorch 的介绍网页中,其实是有两个选项的: DP 和 DDP。但本文此处提及这一内容只是为了避免读者迷失或混淆: 实践中只需使用 DDP,它更快速,而且不局限于单个 Node。
在这里插入图片描述

代码演示

实现分布式深度学习比我们想象的要更简单。它的美妙之处在于,我们不再需要被复杂的GPU配置或梯度分布所困扰。
可以在以下链接找到所有的代码模板和脚本:github

下面是详细步骤分解:

  1. 进程初始化: 这包括指定 master node 、指定端口和设置 world_size。
  2. 设置 Distributed DataLoader(分布式数据加载器): 这一步的关键是在可用的 GPU 上对每个batch进行分区。需要确保数据均匀分布,没有任何重叠。
  3. 模型训练/测试: 本质上,这一步与仅使用单 GPU 的操作流程基本保持不变。

1. 在一个单 GPU 的 Node 上进行训练(baseline)

首先,编写下面这段代码,在单 GPU 上加载数据集、创建模型并进行end-to-end(端到端)的训练。这是项目的起点:

作者:Baihai IDP
链接:https://www.zhihu.com/question/348839533/answer/3324079602
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

import torch
import torch.nn.functional as F
from torch.utils.data import Dataset, DataLoader
from sklearn.datasets import load_wine
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
import numpy as np

class WineDataset(Dataset):
 def __init__(self, data, targets):
        self.data = data
        self.targets = targets

 def __len__(self):
 return len(self.data)

 def __getitem__(self, idx):
 return torch.tensor(self.data[idx], dtype=torch.float), torch.tensor(self.targets[idx], dtype=torch.long)

class SimpleNN(torch.nn.Module):
 def __init__(self):
 super(SimpleNN, self).__init__()
        self.fc1 = torch.nn.Linear(13, 64)
        self.fc2 = torch.nn.Linear(64, 3)

 def forward(self, x):
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
 return x

class Trainer():
 def __init__(self, model, train_data, optimizer, gpu_id, save_every):
        self.model = model
        self.train_data = train_data
        self.optimizer = optimizer
        self.gpu_id = gpu_id
        self.save_every = save_every
        self.losses = []

 def _run_batch(self, source, targets):
        self.optimizer.zero_grad()
        output = self.model(source)
        loss = F.cross_entropy(output, targets)
        loss.backward()
        self.optimizer.step()
 return loss.item()

 def _run_epoch(self, epoch):
        total_loss = 0.0
        num_batches = len(self.train_data)
 for source, targets in self.train_data:
            source = source.to(self.gpu_id)
            targets = targets.to(self.gpu_id)
            loss = self._run_batch(source, targets)
            total_loss += loss

        avg_loss = total_loss / num_batches
        self.losses.append(avg_loss)
 print(f"Epoch {epoch}, Loss: {avg_loss:.4f}")

 def _save_checkpoint(self, epoch):
        checkpoint = self.model.state_dict()
        PATH = f"model_{epoch}.pt"
        torch.save(checkpoint, PATH)
 print(f"Epoch {epoch} | Model saved to {PATH}")

 def train(self, max_epochs):
        self.model.train()
 for epoch in range(max_epochs):
            self._run_epoch(epoch)
 if epoch % self.save_every == 0:
                self._save_checkpoint(epoch)

def load_train_objs():
    wine_data = load_wine()
    X = wine_data.data
    y = wine_data.target

 # Normalize and split
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
    scaler = StandardScaler().fit(X_train)
    X_train = scaler.transform(X_train)
    X_test = scaler.transform(X_test)

    train_set = WineDataset(X_train, y_train)
    test_set = WineDataset(X_test, y_test)

 print("Sample from dataset:")
    sample_data, sample_target = train_set[0]
 print(f"Data: {sample_data}")
 print(f"Target: {sample_target}")

    model = SimpleNN()
    optimizer = torch.optim.Adam(model.parameters(), lr=0.001)

 return train_set, model, optimizer

def prepare_dataloader(dataset, batch_size):
 return DataLoader(dataset, batch_size=batch_size, pin_memory=True, shuffle=True)

def main(device, total_epochs, save_every, batch_size):
    dataset, model, optimizer = load_train_objs()
    train_data = prepare_dataloader(dataset, batch_size)
    trainer = Trainer(model, train_data, optimizer, device, save_every)
    trainer.train(total_epochs)

main(device=torch.device("cuda:0" if torch.cuda.is_available() else "cpu"), total_epochs=100, save_every=50, batch_size=32)

2. 在一个多 GPU 的 Node 上进行训练

现在,我们将在一个 Node 上使用所有 GPU,步骤如下:
导入分布式训练所需的库。
初始化分布式环境:特别是设置 MASTER_ADDR 和 MASTER_PORT。
使用DistributedDataParallel(DDP)将模型进行封装(译者注:DDP 会自动将模型的参数分布到各个 GPU 上,并在训练过程中进行同步)。
使用 Distributed Sampler 确保数据集以分布式方式划分到各个 GPU 上。
通过调整主函数的方式来生成多个进程,每个进程负责在不同的 GPU 上执行训练任务。
对于所需的库,我们可以通过以下操作导入:

import torch.multiprocessing as mp
from torch.utils.data.distributed import DistributedSampler
from torch.nn.parallel import DistributedDataParallel as DDP
from torch.distributed import init_process_group, destroy_process_group
import os

如果在一个 Node 上有8个GPU,我们将会调用以下函数 8 次,为每个GPU设置一个单独的进程,并且为每个进程指定正确的local_rank参数。

def ddp_setup(rank, world_size):
 """
    Set up the distributed environment.
 
    Args:
        rank: The rank of the current process. Unique identifier for each process in the distributed training.
        world_size: Total number of processes participating in the distributed training.
    """
 
 # Address of the main node. Since we are doing single-node training, it's set to localhost.
    os.environ["MASTER_ADDR"] = "localhost"
 
 # Port on which the master node is expected to listen for communications from workers.
    os.environ["MASTER_PORT"] = "12355"
 
 # Initialize the process group. 
 # 'backend' specifies the communication backend to be used, "nccl" is optimized for GPU training.
    init_process_group(backend="nccl", rank=rank, world_size=world_size)
 
 # Set the current CUDA device to the specified device (identified by rank).
 # This ensures that each process uses a different GPU in a multi-GPU setup.
    torch.cuda.set_device(rank)

关于该函数的一些解释:
MASTER_ADDR是运行主进程(或rank为0的进程)的机器的主机名。在这里是localhost,表示在本地运行。MASTER_PORT:指定主进程用于监听来自工作进程或其他进程连接的端口。12355是任意选择的端口号。只要这个端口号在系统中没有被其他服务使用,并且在防火墙规则中被允许,你可以选择任何未使用的端口号。torch.cuda.set_device(rank):这行代码确保每个进程使用其对应的GPU。然后需要对 Trainer 类稍作更改。
我们只需用 DDP 函数对模型进行封装即可:

class Trainer():
 def __init__(self, model, train_data, optimizer, gpu_id, save_every):
        self.model = model.to(gpu_id)
        self.train_data = train_data
        self.optimizer = optimizer
        self.gpu_id = gpu_id
        self.save_every = save_every
        self.losses = []
 
 # This changes
        self.model = DDP(self.model, device_ids=[gpu_id])

Trainer 类的其他部分都是一样的,amazing!
这种情况下需要调整数据加载器(dataloader),以便在多GPU训练中正确地将批次数据分发到每个GPU上进行处理。

def prepare_dataloader(dataset: Dataset, batch_size: int):
 return DataLoader(
        dataset,
        batch_size=batch_size,
        pin_memory=True,
        shuffle=False,
        sampler=DistributedSampler(dataset)
 )

现在,我们可以修改 main 函数,每个进程都将调用该函数(本文这种情况是调用 8 次):

def main(rank: int, world_size: int, save_every: int, total_epochs: int, batch_size: int):
 """
    Main training function for distributed data parallel (DDP) setup.
 
    Args:
        rank (int): The rank of the current process (0 <= rank < world_size). Each process is assigned a unique rank.
        world_size (int): Total number of processes involved in the distributed training.
        save_every (int): Frequency of model checkpoint saving, in terms of epochs.
        total_epochs (int): Total number of epochs for training.
        batch_size (int): Number of samples processed in one iteration (forward and backward pass).
    """
 
 # Set up the distributed environment, including setting the master address, port, and backend.
    ddp_setup(rank, world_size)
 
 # Load the necessary training objects - dataset, model, and optimizer.
    dataset, model, optimizer = load_train_objs()
 
 # Prepare the data loader for distributed training. It partitions the dataset across the processes and handles shuffling.
    train_data = prepare_dataloader(dataset, batch_size)
 
 # Initialize the trainer instance with the loaded model, data, and other configurations.
    trainer = Trainer(model, train_data, optimizer, rank, save_every)
 
 # Train the model for the specified number of epochs.
    trainer.train(total_epochs)
 
 # Cleanup the distributed environment after training is complete.
    destroy_process_group()

最后,在执行脚本时,我们将需要启动8个进程。这可以通过使用mp.spawn()函数来实现(译者注:mp.spawn()函数是PyTorch提供的用于在多个进程中启动训练任务的功能,它可以方便地启动多个进程,并为每个进程分配相应的GPU和其他资源。):

if __name__ == "__main__":
 import argparse
    parser = argparse.ArgumentParser(description='simple distributed training job')
    parser.add_argument('total_epochs', type=int, help='Total epochs to train the model')
    parser.add_argument('save_every', type=int, help='How often to save a snapshot')
    parser.add_argument('--batch_size', default=32, type=int, help='Input batch size on each device (default: 32)')
    args = parser.parse_args()
 
    world_size = torch.cuda.device_count()
    mp.spawn(main, args=(world_size, args.save_every, args.total_epochs, args.batch_size), nprocs=world_size)

临门一脚: 在多个 Node 上进行训练

恭喜您到达了最后一步!这一步是在不同 Node 上调用所有可用的 GPU。如果您理解了前文所做的工作,这一步就非常容易了。在跨多个 Node 进行扩展时,关键区别在于从 local_rank 到 global_rank 的转变。这一点十分重要,因为每个进程都需要一个唯一的标识符。例如,如果使用两个 Node ,每个 Node 有 8 个 GPU,那么进程 0 和进程 8 的 local_rank 都是 0。
global_rank 的计算公式非常直观:global_rank = node_rank * world_size_per_node + local_rank
因此,我们首先要修改 ddp_setup 函数:

def ddp_setup(local_rank, world_size_per_node, node_rank):
    os.environ["MASTER_ADDR"] = "MASTER_NODE_IP" # <-- Replace with your master node IP
    os.environ["MASTER_PORT"] = "12355" 
    global_rank = node_rank * world_size_per_node + local_rank
    init_process_group(backend="nccl", rank=global_rank, world_size=world_size_per_node*torch.cuda.device_count())
    torch.cuda.set_device(local_rank)

还需要调整主函数,该函数现在需要接受world_size_per_node作为参数。

def main(local_rank: int, world_size_per_node: int, save_every: int, total_epochs: int, batch_size: int, node_rank: int):
    ddp_setup(local_rank, world_size_per_node, node_rank)
 # ... (rest of the main function)

最后,我们还调整了 mp.spawn() 函数的 world_size_per_node 值:

if __name__ == "__main__":
 import argparse
    parser = argparse.ArgumentParser(description='simple distributed training job')
    parser.add_argument('total_epochs', type=int, help='Total epochs to train the model')
    parser.add_argument('save_every', type=int, help='How often to save a snapshot')
    parser.add_argument('--batch_size', default=32, type=int, help='Input batch size on each device (default: 32)')
    parser.add_argument('--node_rank', default=0, type=int, help='The rank of the node in multi-node training')
    args = parser.parse_args()

    world_size_per_node = torch.cuda.device_count()
    mp.spawn(main, args=(world_size_per_node, args.save_every, args.total_epochs, args.batch_size, args.node_rank), nprocs=world_size_per_node)

4 使用集群 (SLURM)

现在您已经准备好将训练任务发送到集群上。非常简单,你只需调用所需的节点数即可。
以下是 SLURM 脚本的模板:

#!/bin/bash
#SBATCH --job-name=DDPTraining       # Name of the job
#SBATCH --nodes=$1                   # Number of nodes specified by the user
#SBATCH --ntasks-per-node=1          # Ensure only one task runs per node
#SBATCH --cpus-per-task=1            # Number of CPU cores per task
#SBATCH --gres=gpu:1                 # Number of GPUs per node
#SBATCH --time=01:00:00              # Time limit hrs:min:sec (1 hour in this example)
#SBATCH --mem=4GB                    # Memory limit per GPU
#SBATCH --output=training_%j.log     # Output and error log name (%j expands to jobId)
#SBATCH --partition=gpu              # Specify the partition or queue

srun python3 your_python_script.py --total_epochs 10 --save_every 2 --batch_size 32 --node_rank $SLURM_NODEID

现在您可以使用以下命令从终端启动训练:sbatch train_net.sh 2 # for using 2 nodes

祝贺你,你成功了!
感谢阅读!

https://www.youtube.com/watch?v=Cvdhwx-OBBo
https://www.youtube.com/watch?v=KaAJtI1T2x4
https://pytorch.org/tutorials/beginner/ddp_series_theory.html
https://towardsdatascience.com/a-comprehensive-guide-of-distributed-data-parallel-ddp-2bb1d8b5edfb

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1502253.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

加密与安全_使用Java代码操作RSA算法生成的密钥对

文章目录 Pre概述什么是非对称加密算法&#xff1f;如何工作&#xff1f;示例&#xff1a;RSA算法特点和优势ECC&#xff1a;另一种非对称加密算法 Code生成公钥和私钥私钥加密私钥加密私钥解密 ( 行不通 )私钥加密公钥解密公钥加密和公钥解密 &#xff08;行不通&#xff09;保…

使用Python快速提取PPT中的文本内容

直接提取PPT中的文本内容可以方便我们进行进一步处理或分析&#xff0c;也可以直接用于其他文档的编撰。通过使用Python程序&#xff0c;我们可以快速批量提取PPT中的文本内容&#xff0c;从而实现高效的信息收集或对其中的数据进行分析。本文将介绍如何使用Python程序提取Powe…

C语言分析基础排序算法——插入排序

目录 插入排序 直接插入排序 希尔排序 希尔排序基本思路解析 希尔排序优化思路解析 完整希尔排序文件 插入排序 直接插入排序 所谓直接插入排序&#xff0c;即每插入一个数据和之前的数据进行大小比较&#xff0c;如果较大放置在后面&#xff0c;较小放置在前面&#x…

Lwip之TCP服务端示例记录(1对多)

前言 实现多个客户端同时连接初步代码结构已经实现完成(通过轮训的方式) // // Created by shchl on 2024/3/8. // #if 1#include <string.h> #include "lwip/api.h" #include "FreeRTOS.h" #include "task.h" #include "usart.h&…

DataGirp导入.sql文件

连接数据库前的配置 进行连接测试 利用DataGirp打开.sql文件 右击执行文件 Run 默认为空的源需要手动添加数据库位置 最后就是导入运行 最后等待即可 &#xff08;到底啦~&#xff09;

找不到本地组策略编辑器解决办法

创建记事本写入以下命令 echo offpushd "%~dp0"dir /b %systemroot%\Windows\servicing\Packages\Microsoft-Windows-GroupPolicy-ClientExtensions-Package~3*.mum >gp.txtdir /b %systemroot%\servicing\Packages\Microsoft-Windows-GroupPolicy-ClientTools-…

sentinel docker 基础配置学习

1&#xff1a;去官网下载 Releases alibaba/Sentinel GitHub 2&#xff1a;保存到linux 3&#xff1a;编写dockerfile FROM openjdk:8-jreLABEL authors"xxx" #第二步创建一个文件夹Z RUN mkdir /app #第三步复制jar 到app 下 COPY xxxxxx-1.8.7.jar /app/#第四…

突然发现一个很炸裂的平台!

平时小孟会开发很多的项目&#xff0c;很多项目不仅开发的功能比较齐全&#xff0c;而且效果比较炸裂。 今天给大家介绍一个我常用的平台&#xff0c;因含低代码平台&#xff0c;开发相当的快。 1&#xff0c;什么是低代码 低代码包括两种&#xff0c;一种低代码&#xff0c;…

球形投影建筑:塑造未来观影的颠覆者

在数字科技快速迭代的今天&#xff0c;轻空间公司领先创新浪潮&#xff0c;推出了一项突破性的建筑概念 - 球形投影建筑&#xff0c;它不仅仅是娱乐场所&#xff0c;更是一场带领观众走向极致沉浸感的感官之旅&#xff0c;为观众带来令人震撼的视听冲击。 全新时代的沉浸式体验…

采用 Amazon DocumentDB 和 Amazon Bedrock 上的 Claude 3 构建游戏行业产品推荐

前言 大语言模型&#xff08;LLM&#xff09;自面世以来即展示了其创新能力&#xff0c;但 LLM 面临着幻觉等挑战。如何通过整合外部数据库的知识&#xff0c;检索增强生成&#xff08;RAG&#xff09;已成为通用和可行的解决方案。这提高了模型的准确性和可信度&#xff0c;特…

2024年2月份微软安全通告

文章目录 &#xff08;一&#xff09; 漏洞概要&#xff08;二&#xff09; 漏洞数据分析1、漏洞数量趋势2、历史微软补丁日二月漏洞对比3、漏洞数量分析 &#xff08;三&#xff09; 重要漏洞分析1、漏洞分析2、影响范围3、修复建议 &#xff08;一&#xff09; 漏洞概要 202…

探索 ON1 Resize Ai 2023.5 for Mac/win:释放图像的无限可能

ON1 Resize AI 2023.5 for Mac/Win 是一款专业的图像无损放大软件&#xff0c;通过人工智能技术&#xff0c;能够将图像放大至更高的分辨率&#xff0c;同时保持图像细节和清晰度的最佳状态。该软件的强大功能和直观的操作界面&#xff0c;使它成为摄影师、设计师和艺术家的理想…

APP加固dex解密流程分析

前言 在去年9月的时候,我就想研究一下apk的加固,在网上逛了一圈,感觉某加固不错,所以先选它啦,写了一个测试apk丢到某加固里面加固了一下 这里我用的是某加固的免费版(因为付费版太贵啦) 本来计划着去年分析完某加固的,但是总是抽不出一段完整的时间来所以就拖到了现在,终于最近…

Linux系统Docker部署DbGate并结合内网穿透实现公网管理本地数据库

&#x1f308;个人主页: Aileen_0v0 &#x1f525;热门专栏: 华为鸿蒙系统学习|计算机网络|数据结构与算法|MySQL| ​&#x1f4ab;个人格言:“没有罗马,那就自己创造罗马~” #mermaid-svg-66GkyG9g7oNq7tl8 {font-family:"trebuchet ms",verdana,arial,sans-serif;f…

TCP包头

TCP包头: 1.序号:发送端发送数据包的编号 2.确认号:已经确认接收到的数据的编号(只有当ACK为1时,确认号才有用) TCP为什么安全可靠: 1.在通信前建立三次握手连接 SYN SYNACK ACK SYN是TCP包头的一个字段 tcp.port 端口号 抓包数据 2.在通信过程中通过序…

docker安装ES、LogStash、Kibana

文章目录 一、安装Elasticsearch1. 安装Elasticsearch2. 安装IK分词器3. elasticsearch-head 监控的插件4. 配置跨域 二、安装LogStash三、安装kibana四、SpringBoot集成LogStash&#xff0c;将日志输出到ES中五、 启动项目&#xff0c;监控项目运行 提示&#xff1a;以下是本篇…

C++:模版进阶 | Priority_queue的模拟实现

创作不易&#xff0c;感谢三连支持 一、非类型模版参数 模板参数分类为类型形参与非类型形参。 类型形参即&#xff1a;出现在模板参数列表中&#xff0c;跟在class或者typename之类的参数类型名称。 非类型形参&#xff0c;就是用一个常量作为类(函数)模板的一个参数&…

python基础——输入与输出【input 和 print】

&#x1f4dd;前言&#xff1a; 上一篇文章python基础——入门必备知识中讲解了一些关于python的基础知识&#xff0c;可以让我们更好的理解程序代码中内容的含义&#xff0c;不至于一头雾水。今天我就来介绍一下&#xff0c;python中两个常见的输入和输出语句 input 和 print …

AI探索实践12 - Typescript开发AI应用4:大模型响应数据的格式化输出

大家好&#xff0c;我是feng&#xff0c;感谢你阅读我的博文&#xff0c;如果你也关注AI应用开发&#xff0c;欢迎关注公众号和我一起​探索。如果文章对你有所启发&#xff0c;请为我点赞&#xff01; 一、重点回顾 在介绍本文之前的文章中&#xff0c;我们先来回顾一下使用L…

Leetcode 剑指 Offer II 068.搜索插入位置

题目难度: 简单 原题链接 今天继续更新 Leetcode 的剑指 Offer&#xff08;专项突击版&#xff09;系列, 大家在公众号 算法精选 里回复 剑指offer2 就能看到该系列当前连载的所有文章了, 记得关注哦~ 题目描述 给定一个排序的整数数组 nums 和一个整数目标值 target &#xf…