【课程总结】day24(上):大模型三阶段训练方法(LLaMa Factory)

news2024/11/16 23:47:39

前言

本章我们将通过 LLaMA-Factory 具体实践大模型训练的三个阶段,包括:预训练、监督微调和偏好纠正。

大模型训练回顾

训练目标

训练一个医疗大模型

训练过程实施

准备训练框架

LLaMA Factory是一款开源低代码大模型微调框架,集成了业界最广泛使用的微调技术,支持通过Web UI界面零代码微调大模型,目前已经成为开源社区内最受欢迎的微调框架,GitHub星标超过2万。

运行环境要求
  • 硬件:
    • GPU:推荐使用24GB显存的显卡或者更高配置
  • 软件:
    • python:3.10
    • pytorch:2.1.2 + cuda12.1
    • 操作系统:Ubuntu 22.04

推荐选择DSW官方镜像:modelscope:1.14.0-pytorch2.1.2-gpu-py310-cu121-ubuntu22.04

下载训练框架

第一步:登录ModelScope平台,启动PAI-DSW的GPU环境,并进入容器。

第二步:在容器中,通过命令行拉取代码。

# 拉取代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

# 进入代码目录
cd LLaMA-Factory

# 安装依赖
pip install -e ".[torch,metrics]"

第三步:检查环境是否安装成功。

llamafactory-cli version

正常安装成功显示如下:

  1. 如果安装不成功,需要根据提示信息进行逐个问题解决。
  2. 一般情况下,在ModelScope平台中,一般会出现Keras 版本不匹配的问题,可以运行pip install tf-keras解决。

第四步:进行端口映射命令
由于阿里云平台的端口映射似乎存在问题,这会导致启动LLaMA Factory的Web界面显示异常,所以需要手动在命令行运行如下命令:

export GRADIO_SERVER_PORT=7860 GRADIO_ROOT_PATH=/${JUPYTER_NAME}/proxy/7860/

第五步:命令行下运行命令,启动WebUI界面

llamafactory-cli webui

启动后,点击返回信息中的http://0.0.0.0:7860,可以看到Web界面。

准备训练模型

选择模型

在开展大模型训练之前,由于我们不能从零开始训练一个大模型(时间及资源都不允许!),所以我们需要选择一个已经训练好的模型,作为基础模型进行训练。

在ModelScope平台,我们选择Qwen2-0.5B模型作为底座模型。

下载模型

第一步:拉取代码

git clone https://www.modelscope.cn/qwen/Qwen2-0.5B.git

第二步:在LLaMA-Factory下创建models目录,方便后续模型都维护在该目录下。

第三步:移动模型目录到LLaMA-Factorymodels目录下。

LLaMA-Factory/
|-models/
    |-Qwen2-0.5B/
验证模型

第一步:在LLaMA-Factory的WebUI界面,进行相关配置。

  • Model name: Qwen2-0.5B
  • Model path: models/Qwen2-0.5B

models/Qwen2-0.5B 对应 下载模型 第三步中的路径。由于Linux系统是大小写敏感,所以需要特别注意页面配置路径与实际路径大小写要保持一致。

第二步:切换Tab为 Chat , 点击 Load model按钮。
模型加载成功后,会显示如下界面。

如果出现错误,可以通过切换到启动LLaMA Factory的命令行查看日志信息排查问题。

第三步:在Chat的对话框中,输入简单信息验证模型能否使用。

由于当前加载的Qwen2-0.5B是一个基础模型,所以其对话能力会非常弱,这里我们主要是验证模型加载的整体流程是否通顺。

第1阶段:预训练

❗由于大模型的预训练需要数千个GPU并持续数月的时间,所以一般情况下实际工作中并不会涉及到预训练,本篇文章我们只做的简单流程体验。

准备训练数据

说明:LLaMa-Factory的Github上有训练数据格式的详细说明,请见README_zh。

  • 预训练数据格式:
[
  {"text": "document"},
  {"text": "document"}
]
  • 数据集样例:

按照数据集样例,我们准备如下的自定义预训练数据集,保存到data/custom_pt_train_data.json

[
  {"text": "患者在过去的五年中多次出现头痛症状。"},
  {"text": "研究表明,适量运动有助于改善心血管健康。"},
  {"text": "高血压患者需定期监测血压水平。"},
  {"text": "糖尿病患者应注意饮食控制和胰岛素使用。"},
  {"text": "流感疫苗每年接种可以有效预防流感。"},
  {"text": "保持良好的睡眠习惯对心理健康至关重要。"},
  {"text": "慢性咳嗽可能是肺部疾病的早期征兆。"},
  {"text": "定期体检可以帮助早期发现健康问题。"},
  {"text": "心理咨询对缓解焦虑和抑郁症状有效。"},
  {"text": "饮食中增加纤维素有助于消化系统健康。"},
  {"text": "适量饮水对维持身体正常功能非常重要。"},
  {"text": "戒烟可以显著降低患肺癌的风险。"},
  {"text": "高胆固醇水平可能导致心脏病。"},
  {"text": "保持健康体重有助于降低多种疾病风险。"},
  {"text": "心理健康与身体健康密切相关。"},
  {"text": "儿童应定期进行视力和听力检查。"},
  {"text": "老年人易患骨质疏松症,需注意补钙。"},
  {"text": "过度饮酒会对肝脏造成严重损害。"},
  {"text": "心脏病患者应遵循医生的治疗方案。"},
  {"text": "良好的饮食习惯可以改善生活质量。"},
  {"text": "运动可以帮助减少压力和焦虑。"},
  {"text": "戒烟后,肺部功能会逐渐恢复。"},
  {"text": "高血糖可能导致多种并发症。"},
  {"text": "定期锻炼有助于提高免疫力。"},
  {"text": "适量的社交活动可以提高生活满意度。"},
  {"text": "健康的生活习惯可以改善整体健康状况。"},
  {"text": "心理健康教育应引起全社会的重视。"}
]
注册自定义数据

根据LLaMa-Factory的README,我们需要在dataset_info.json中按照以下格式注册自定义的数据集。

  • 数据集注册格式:
"数据集名称": {
  "file_name": "data.json",
  "columns": {
    "prompt": "text"
  }
}

我们在data/dataset_info.json中添加如下数据集:

"custom_pt_train_data": {
  "file_name": "custom_pt_train_data.json",
  "columns": {
    "prompt": "text"
  }
}

预览训练数据

在 LLaMa-Factory的WebUI界面上,选择Dataset为 custom_pt_train_data,点击Preview dataset按钮,预览数据集。

配置训练参数
  • Model name: Qwen2-0.5B
  • Model path: models/Qwen2-0.5B
  • Finetuning method: full
  • Stage : Pre-Training
  • Dataset: custom_pt_train_data , c4_demo, wikipedia_zh
  • Output dir: Qwen2_pretrain_output_demo1

参数简要说明:

  • Finetuning method代表微调的方法:
    • full: 完全微调模型的所有参数。
    • Freeze:冻结模型的某些层或所有层,仅微调特定的参数。
    • LoRA (Low-Rank Adaptation):在不改变原始模型参数的情况下,通过添加少量的可训练参数来适应新任务。
  • Stage 代表训练的阶段:
    • Pre-Training: 预训练阶段。
    • Supervised Fine-Tuning: 微调阶段。
    • Reward Model: 奖励模型是一个过程,通过构建一个模型来预测给定输入的奖励值,通过训练奖励模型,可以为后续的强化学习提供一个目标。
    • PPO (Proximal Policy Optimization): PPO是一种强化学习算法,旨在优化策略(即模型的行为),以最大化预期奖励。
    • DPO (Direct Preference Optimization): DPO是一种直接优化偏好的方法,通常用于根据人类反馈直接调整模型的输出。
    • KTO (Knowledge Transfer Optimization): KTO指的是知识迁移优化,旨在从一个任务或模型中迁移知识到另一个任务或模型。
启动训练

点击Preview Command预览命令行无误后,点击Start即可开启训练。

如果启动训练失败,可以通过切换到启动LLaMA Factory的命令行查看日志信息排查问题。
例如:我首次启动时报错如下:

# ConnectionError: Couldn't reach 'pleisto/wikipedia-cn-20230720-filtered' on the Hub (ConnectionError)

这个问题是因为加载wikipedia-cn-20230720-filtered数据集时,由于网络问题,导致无法加载。因此,本着将训练流程跑通,我将数据集改为wiki_demo后运行,即可正常训练。

正常训练过程:

第2阶段:监督微调

准备训练数据

SFT 的数据格式有多种,例如:Alpaca格式、OpenAI格式等。

其中Alpaca格式如下:

[
  {
    "instruction": "human instruction (required)",
    "input": "human input (optional)",
    "output": "model response (required)",
    "system": "system prompt (optional)",
    "history": [
      ["human instruction in the first round (optional)", "model response in the first round (optional)"],
      ["human instruction in the second round (optional)", "model response in the second round (optional)"]
    ]
  }
]

根据以上的数据格式,我们在ModelScope的数据集找到中文医疗对话数据-Chinese-medical-dialogue符合上述格式。

# 在data目录下使用git命令拉取数据集
git clone https://www.modelscope.cn/datasets/xiaofengalg/Chinese-medical-dialogue.git
注册自定义数据

dataset_info.json中添加如下数据集:

  "custom_sft_train_data": {
  "file_name": "Chinese-medical-dialogue/data/train_0001_of_0001.json",
  "columns": {
    "prompt": "instruction",
    "query": "input",
    "response": "output"
    }
  },
预览训练数据

通过Preview dataset按钮预览数据集。

配置训练参数
  • Model name: Qwen2-0.5B
  • Model path: saves/Qwen2-0.5B/full/Qwen2_pretrain_output_demo1
  • Finetuning method: full
  • Stage : Supervised Fine-Tuning
  • Dataset: custom_sft_train_data
  • Output dir: Qwen2_sft_output_demo1

配置参数说明:

  • Model path:我们选择第1阶段预训练模型的输出目录。
  • Stage:这一阶段,因为我们要进行微调,选择Supervised Fine-Tuning
  • Output dir: 更换一个新的输出路径,以便后续开展第3阶段训练,例如:Qwen2_sft_output_demo1
启动训练

点击Preview Command预览命令行

llamafactory-cli train 
    --stage sft 
    --do_train True 
    --model_name_or_path saves/Qwen2-0.5B/full/Qwen2_pretrain_output_demo1 
    --preprocessing_num_workers 16 
    --finetuning_type full 
    --template default 
    --flash_attn auto 
    --dataset_dir data 
    --dataset custom_sft_train_data 
    --cutoff_len 1024 
    --learning_rate 5e-05 
    --num_train_epochs 3.0 
    --max_samples 100000 
    --per_device_train_batch_size 2 
    --gradient_accumulation_steps 8 
    --lr_scheduler_type cosine 
    --max_grad_norm 1.0 
    --logging_steps 5 
    --save_steps 100 
    --warmup_steps 0 
    --optim adamw_torch 
    --packing False 
    --report_to none 
    --output_dir saves/Qwen2-0.5B/full/Qwen2_sft_output_demo1 
    --bf16 True 
    --plot_loss True 
    --ddp_timeout 180000000 
    --include_num_input_tokens_seen True 

补充说明:

  • --logging_steps 5: 每 5 步记录一次训练日志。
  • --save_steps 100: 每 100 步保存一次模型检查点。

这里最好将save_steps 设置大一点,否则训练过程会生成非常多的训练日志,导致硬盘空间不足而训练终止。

命令行确认无误后,点击Start即可开启训练。

训练过程中,记得实时关注资源的消耗情况:

  • 显存:使用watch -n 1 nvidia-smi 实时查看显存开销。
  • 硬盘:使用watch -n 1 df -h /mnt 实施查看/mnt分区的磁盘使用情况。

历时5小时30分钟后,模型终于训练完毕。(大模型的训练果然是一个烧钱💰的过程)

验证模型
  1. 在LLaMA Factory的WebUI界面上,切换至Chat界面
  2. Model path: 输入刚才训练模型的输出目录,即saves/Qwen2-0.5B/full/Qwen2_sft_output_demo1
  3. 其他配置保持默认不变;
  4. 点击Load model,待模型加载成功后,输入看病相关的信息,测试模型的能力。

第3阶段:偏好纠正

准备训练数据
  • 纠正偏好数据格式:
[
  {
    "instruction": "human instruction (required)",
    "input": "human input (optional)",
    "chosen": "chosen answer (required)",
    "rejected": "rejected answer (required)"
  }
]

按照上述数据格式,我们借助其他的大模型生成20条训练数据并保存到data/custom_rlhf_train_data.json

[
  {
    "instruction": "请提供一种常见的感冒药。",
    "input": "我需要一种能缓解咳嗽的药。",
    "chosen": "感冒药如对乙酰氨基酚可以缓解症状。",
    "rejected": "我不知道有什么药。"
  },
  {
    "instruction": "解释一下高血压的危害。",
    "input": "高血压对身体有什么影响?",
    "chosen": "高血压会增加心脏病和中风的风险。",
    "rejected": "高血压没什么大不了的。"
  },
  {
    "instruction": "推荐一种健康的饮食习惯。",
    "input": "我想减肥,应该吃什么?",
    "chosen": "建议多吃水果和蔬菜,减少糖分摄入。",
    "rejected": "只吃沙拉就可以了。"
  },
  {
    "instruction": "描述糖尿病的症状。",
    "input": "糖尿病有什么明显的症状?",
    "chosen": "常见症状包括口渴、频繁排尿和疲劳。",
    "rejected": "没有什么特别的症状。"
  },
  {
    "instruction": "如何预防流感?",
    "input": "我应该怎么做才能不得流感?",
    "chosen": "接种流感疫苗和勤洗手是有效的预防措施。",
    "rejected": "只要不出门就行了。"
  },
  {
    "instruction": "解释一下心脏病的风险因素。",
    "input": "心脏病的危险因素有哪些?",
    "chosen": "包括高血压、高胆固醇和吸烟。",
    "rejected": "心脏病与生活方式无关。"
  },
  {
    "instruction": "如何缓解焦虑?",
    "input": "我感到很焦虑,有什么建议?",
    "chosen": "尝试深呼吸练习和规律锻炼。",
    "rejected": "焦虑没什么好担心的。"
  },
  {
    "instruction": "推荐一些适合老年人的锻炼方式。",
    "input": "老年人适合什么运动?",
    "chosen": "散步、游泳和太极都是很好的选择。",
    "rejected": "老年人不需要运动。"
  },
  {
    "instruction": "解释什么是过敏反应。",
    "input": "过敏反应是什么?",
    "chosen": "是免疫系统对某些物质的异常反应。",
    "rejected": "过敏反应就是感冒。"
  },
  {
    "instruction": "如何保持心理健康?",
    "input": "我应该怎么照顾自己的心理健康?",
    "chosen": "定期与朋友交流和寻求专业帮助是很重要的。",
    "rejected": "心理健康不重要。"
  },
  {
    "instruction": "描述高胆固醇的影响。",
    "input": "高胆固醇对身体有什么影响?",
    "chosen": "可能导致动脉硬化和心脏病。",
    "rejected": "高胆固醇没什么影响。"
  },
  {
    "instruction": "如何识别抑郁症?",
    "input": "抑郁症的症状有哪些?",
    "chosen": "包括持续的悲伤、失去兴趣和疲惫感。",
    "rejected": "抑郁只是心情不好。"
  },
  {
    "instruction": "建议如何提高免疫力。",
    "input": "我想增强免疫力,有什么建议?",
    "chosen": "保持均衡饮食、充足睡眠和适量运动。",
    "rejected": "吃药就能提高免疫力。"
  },
  {
    "instruction": "讲解什么是癌症筛查。",
    "input": "癌症筛查是什么?",
    "chosen": "是通过检测早期发现癌症的过程。",
    "rejected": "癌症筛查没必要。"
  },
  {
    "instruction": "如何处理压力?",
    "input": "我压力很大,怎么办?",
    "chosen": "可以尝试冥想和时间管理技巧。",
    "rejected": "压力是正常的,不必处理。"
  },
  {
    "instruction": "解释什么是肥胖。",
    "input": "肥胖是什么?",
    "chosen": "是体重超过健康范围的状态,通常由多种因素造成。",
    "rejected": "肥胖只是吃得多。"
  },
  {
    "instruction": "如何进行健康检查?",
    "input": "健康检查包括什么?",
    "chosen": "通常包括体检、血液检查和必要的影像学检查。",
    "rejected": "健康检查不重要。"
  },
  {
    "instruction": "推荐一些抗氧化的食物。",
    "input": "哪些食物富含抗氧化剂?",
    "chosen": "蓝莓、坚果和绿茶都是很好的选择。",
    "rejected": "抗氧化食物没什么特别。"
  },
  {
    "instruction": "解释什么是慢性病。",
    "input": "慢性病是什么?",
    "chosen": "是长期存在且通常无法完全治愈的疾病。",
    "rejected": "慢性病就是普通病。"
  }
]
注册自定义数据

dataset_info.json中,注册新添加的custom_rlhf_train_data.json数据集。

  "custom_rlhf_train_data": {
    "file_name": "custom_rlhf_train_data.json",
    "ranking": true,
    "columns": {
      "prompt": "instruction",
      "query": "input",
      "chosen": "chosen",
      "rejected": "rejected"
    }
  },
配置训练参数

第三阶段有两种训练方式:Reward Model + PPODPO,这两种方式我们都做一下尝试。

策略1:Reward Model + PPO

第一步:先训练Reward Model

  • Finetuning method: 选择lora (因为是训练补丁,所以此处一定要选择为lora)
  • Stage: 选择Reward Modeling
  • Dataset: 选择刚才上传 custom_rlhf_train_data.json
  • Output dir:设置一个新的输出目录,例如:Qwen2_rm_output_demo1

训练完毕后,会在save下生成一个补丁。

第二步:通过PPO+第一步训练时的Reward Model,具体配置方法为:

  • Finetuning method: 选择lora (因为是训练补丁,所以此处一定要选择为lora)
  • Stage: 选择Supervised Fine-tuning
  • Dataset: 由于这一过程本质是SFT训练,所以数据集选择 custom_sft_train_data.json
  • Reward model: 在RLHF configurations中,设置为第一步训练的输出目录,即Qwen2_rm_output_demo1
  • Output dir:设置一个新的输出目录,例如:Qwen2_ppo_output_demo1

训练完毕后,同样会在save下生成一个补丁。

第三步:将Lora补丁与原始模型合并导出

  1. 切换到Chat标签下
  2. Model path: 选择第二阶段的输出,即:saves/Qwen2-0.5B/full/Qwen2_sft_output_demo1
  3. Checkpoint path: 选择上面第二步的输出,即 Qwen2_ppo_output_demo1
  4. 点击Load model,待模型加载成功后,测试模型
  5. 切换至Export标签下
  6. Export path:设置一个新的路径,例如Qwen2_final_output_demo1
  7. 点击Export按钮

最终,会在LLaMa Factory中,生成导出的目录文件,该文件即为最终训练的模型。

策略2:直接使用DPO训练

第一步:直接配置DPO训练参数

  • Finetuning method: 选择lora
  • Stage: 选择DPO
  • Dataset: 选择刚才上传 custom_rlhf_train_data.json
  • Output dir:设置一个新的输出目录,例如:Qwen2_dpo_output_demo1

训练完毕后,会在save下生成一个补丁。

第二步:将Lora补丁与第二阶段训练的模型输出合并导出。(该步骤与上面策略1的方法类似,此处不再赘述)

至此,经过大模型的三个阶段,我们完成了一个医疗大模型的训练。

附录

TeleChat-PTD数据集

如果涉及到从零开始训练大模型的话,预训练数据集可以参考了解 TeleChat-PTD 数据集。

数据集简介

  • TeleChat-PTD 是由电信星辰大模型TeleChat预训练语料中抽取出的的综合性大规模中文数据集。
  • 数据集地址:https://modelscope.cn/datasets/TeleAI/TeleChat-PTD
  • 数据集规模:2.7亿
  • 数据集类型:纯中文文本构成
  • 数据集来源:网页、书籍、官方媒体等
  • 数据集大小:原始大小约1TB,压缩后480G,共189个文件。

数据集特点

  • 该数据集是以 JSON Lines 格式(.jsonl)存储的,每一行都是一个独立的 JSON 对象。
  • 每个 JSON 对象包含一个键为 "data" 的字段:
{
  "data": "文本内容"
}

数据集内容预览

内容小结

  • LLaMA-Factory是一个开源的、可自定义的、可扩展的、可部署的、可训练的大模型训练平台。
  • LLaMA-Factory的训练流程分为3个阶段:预训练、监督微调、偏好纠正。
  • 训练过程的大致步骤为:
    • 按照LLaMA-Factory官方README文档的数据格式,准备训练数据;
    • 按照LlaMA-Factory官方README文档,在的dataset_info.json文件,注册自定义数据;
    • 根据训练阶段配置训练参数,包括模型名称、模型路径、训练方法、数据集、输出目录等;
    • 预览训练命名无误后,启动训练。
    • 如果启动训练失败,可以通过切换到启动LLaMA Factory的命令行查看日志信息排查问题。

参考资料

Github:LLaMA-Factory的README文件

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2042926.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Spring Security 01.两个功能

在 Spring Security 的架构设计中,认证(Authentication)和授权(Authorization)是分开 的,在本书后面的章节中读者可以看到,无论使用什么样的认证方式,都不会影响授权,这是…

国际网络组网如何布署?

国际网络组网的布署涉及多个关键的步骤和注意事项,以确保网络的可靠性、可扩展性和安全性。通过深入分析网络需求、基础设施选择、网络设备配置、数据安全及灾难恢复计划等方面,可以实现有效的国际网络组网布署。 在网络需求分析的阶段,首先需…

Flow Simulator 案例分享:换热器的一维仿真

换热器的 CFD 仿真 换热器广泛用于动力设备、空调系统和电子设备等冷、热介质的热量交换。由于结构上存在大量的管束和翅片结构,在 CFD 仿真中通常不会创建全细节模型,而是采用多孔介质和换热效率模型来简化。 各种类型的换热器 Flow Simulator中的换热器…

探索Python的隐秘武器:itsdangerous的威力与妙用

文章目录 **探索Python的隐秘武器:itsdangerous的威力与妙用**第一部分:背景介绍第二部分:itsdangerous是什么?第三部分:如何安装itsdangerous?第四部分:itsdangerous的五个简单函数第五部分&am…

DVWA中文件上传漏洞之High渗透测试

1、代码分析 我们可以看到DVWA中文件上传漏洞的代码,现在我们对这个进行渗透测试。 方法1:直接用脚本改成图片格式看是否可行。改成jpg或者jpeg或者png 通过这种方式,我们发现上传的时候会被拦截,所以这个方式不可取 方法2&…

【MATLAB源码-第248期】基于matlab的EMD算法+ICA算法轴承故障分析。

操作环境: MATLAB 2022a 1、算法描述 经验模态分解(EMD)与轴承故障识别 EMD的基本原理 EMD 是一种自适应的信号分解技术,最初由 Huang 等人在 1998 年提出,旨在分析非线性和非平稳信号。传统的信号处理方法通常假…

Spring框架的应用(面试题)

目录 14. Spring框架中的Bean的作用域 通过XML方式设置bean的作用域 通过注解方式设置bean的作用域 15. Spring框架中的Bean的线程安全 16.Spring 框架中的Bean生命周期 17.Spring 框架如何解决循环依赖? 18.Spring 框架中有哪些注解? 19.Spring 框架中用到的设计模式…

uniapp在线下载安装包更新app

首先用getSystemInfo判断平台、 再通过json文件模拟接口 判断版本号是否一致 不一致则下载服务器apk进行更新 外加网络波动导致失败重新下载更新包 uni.getSystemInfo({success: function (e) {// #ifndef H5// 获取手机系统版本const system e.system.toLowerCase();const pl…

博世(BOSCH)× Milvus:智能驾驶领域的数据挖掘革新

01.博世智能驾控:智能驾驶技术的领航者 博世(BOSCH)智能驾控是全球汽车技术领域的领导者,以其在自动驾驶技术上的创新和深厚历史而闻名。博世的自动驾驶解决方案,包括先进的驾驶辅助系统(ADAS)…

四十二、大数据技术之Kafka3.x(5)

🌻🌻 目录 一、Kafka-Eagle 监控1.1 MySQL 环境准备1.2 Kafka 环境准备1.3 Kafka-Eagle 安装1.4 Kafka-Eagle 页面操作 二、集成 SpringBoot2.1 前期准备2.2 SpringBoot 生产者2.3 SpringBoot 消费者 三、集成 Spark(拓展 Scala 语言&#xf…

Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data精读

文章目录 1.摘要2.引言2.相关工作3.Depth Anything3.1 Learning Labeled Images3.2. Unleashing the Power of Unlabeled Images3.3. Semantic-Assisted Perception 4. Experiment4.1. 实施细节4.2. 零样本相对深度估计4.3. 微调至度量深度估计4.3.1 领域内度量深度估计4.3.2 零…

数的个位相加

给定一个非负整数 num,反复将各个位上的数字相加,直到结果为一位数。返回这个结果。 示例 1: 输入: num 38输出: 2 解释: 各位相加的过程为: 38 --> 3 8 --> 11 11 --> 1 1 --> 2 由于 2 是一位数,所以返回 2。…

pytorch分布式训练卡住,显卡占用100

1、问题 使用pytorch进行分布式训练,一机多卡,采用 DistributedDataParallel 方式,多次执行卡在了同一个地方。但是单卡和 DataParallel 方式都没有卡住的现象。 执行nvidia-smi,此时全部GPU利用率均为100%: 2、debug…

【建模与仿真】一文搞定AFSIM

😊你好,我是小航,一个正在变秃、变强的文艺倾年。 🔔本文讲解【建模与仿真】一文搞定AFSIM,期待与你一同探索、学习、进步,一起卷起来叭! 目录 一、CMAKE二、AFSIM前言架构元素核心应用核心架构…

《学会 SpringBoot 系列 · ConfigurableApplicationContext 详解》

📢 大家好,我是 【战神刘玉栋】,有10多年的研发经验,致力于前后端技术栈的知识沉淀和传播。 💗 🌻 CSDN入驻不久,希望大家多多支持,后续会继续提升文章质量,绝不滥竽充数…

WordPress多用途电子商务博客新闻主题betheme 21.5.6版本

简介: WordPress多用途电子商务博客新闻主题betheme 21.5.6版本 自带500多套模板 BeTheme第一次发布于2014年5月21日,自那时以来,已有数以百万计的人下载了BeTheme,其评分为4.8。 这个主题是WooCommerce支持的,在此…

UniApp第一天

一、官网介绍 1.1、 SDK SDK是"Software Development Kit"的缩写,中文意思是“软件开发工具包”。SDK通常是由软件开发者为其他开发者提供的一个软件工具集合,用于帮助开发者快速开发、测试和部署软件应用。SDK通常包含了一系列的开发工具、库…

让3岁小孩都能理解LeetCode每日一题_3148.矩阵中的最大得分

解释说明&#xff1a; 上面的内容的意思是为了有只移动一次的情况&#xff0c;而后面的grid&#xff08;i,j)-grid(i,k)由于j严格大于k,所以至少移动了一次&#xff0c;前面可以保持不移动&#xff0c;不移动就是选择0。 class Solution {public int maxScore(List<List&l…

倍福EAP协议应用讲解

倍福EAP协议应用讲解 前言 倍福提供了用于在以太网上进行实时通信的EtherCAT协议&#xff0c;EtherCAT协议属于现场层协议&#xff0c;即具有主从结构&#xff0c;通信只能由主站发起&#xff0c;从站不具备发起通信的功能&#xff0c;只能被动接收数据并插入数据到通信帧中。…

Java基础之switch分支语句

switch分支语句 ​ switch语句也称为分支语句&#xff0c;其和if语句有点类似&#xff0c;都是用来判断值是否相等&#xff0c;但switch默认只支持byte、short、int、char这四种类型的比较&#xff0c;JDK8中也允许String类型的变量做对比。 语法&#xff1a; switch (表达式…