深度学习---框架流程

news2025/4/29 5:39:32

核心六步

一、数据准备
二、模型构建
三、模型训练
四、模型验证
五、模型优化
六、模型推理

一、数据准备:深度学习的基石

数据是模型的“燃料”,其质量直接决定模型上限。核心步骤包括:

1. 数据收集与标注
  • 来源:公开数据集(如ImageNet、MNIST)、网络爬取、传感器采集、人工标注(如图片分类标签、文本情感标注)。
  • 标注要求:标签准确性(避免噪声)、标注一致性(多人标注需校准)、标注完整性(覆盖所有目标类别)。
  • 数据形态:结构化数据(表格、数值)、非结构化数据(图像、文本、音频、视频),需根据任务类型(分类、回归、生成、NLP等)适配。
2. 数据清洗
  • 去噪:删除重复样本、处理缺失值(插值、删除)、过滤异常值(统计方法或算法检测)。
  • 格式统一:图像尺寸归一化(如224x224)、文本分词与序列化(如BERT的Tokenization)、音频采样率统一。
  • 平衡处理:解决类别不平衡(过采样SMOTE、欠采样、生成少数类样本)。
3. 数据预处理
  • 特征工程(针对结构化数据):归一化(Min-Max)、标准化(Z-Score)、独热编码(One-Hot)、特征选择(相关性分析、PCA降维)。
  • 模态处理(针对非结构化数据):
    • 图像:灰度化、缩放、通道转换(RGB转BGR)、添加噪声/模糊增强泛化性。
    • 文本:词嵌入(Word2Vec、GloVe)、位置编码(Transformer)、截断/填充(固定序列长度)。
    • 音频:梅尔频谱转换、MFCC特征提取。
4. 数据增强(关键提效手段)
  • 图像增强:翻转、旋转、裁剪、亮度/对比度调整、MixUp/CutOut数据合成。
  • 文本增强:同义词替换、随机删除/插入、回译(机器翻译增强)。
  • 目的:扩大数据集规模、减少过拟合、增强模型鲁棒性。
5. 数据集划分
  • 训练集(60-80%):用于模型参数学习。
  • 验证集(10-20%):训练中评估模型,调整超参数(避免用测试集调参导致数据泄漏)。
  • 测试集(10-20%):最终评估模型泛化能力,需与训练集独立同分布(i.i.d.)。

二、模型构建:架构设计与组件选择

根据任务目标设计网络结构,核心要素包括:

1. 模型架构选择
  • 经典范式
    • CV领域:CNN(LeNet、ResNet残差网络、ViT视觉Transformer)。
    • NLP领域:RNN/LSTM(序列建模)、Transformer(自注意力机制,BERT/GPT基础)。
    • 生成任务:GAN(生成对抗网络)、VAE(变分自编码器)。
    • 多模态:跨模态融合模型(如CLIP图文对齐)。
  • 设计原则:复杂度匹配数据规模(避免小数据用大模型导致过拟合)、计算资源适配(移动端用轻量模型如MobileNet)。
2. 网络层设计
  • 基础层:输入层(适配数据维度)、输出层(分类用Softmax,回归用Linear)。
  • 功能层
    • 卷积层(CNN提取空间特征)、池化层(降维)、全连接层(特征映射)。
    • 注意力层(Self-Attention捕捉长距离依赖)、归一化层(Batch Normalization稳定训练)。
    • 激活层(ReLU/Sigmoid/Tanh引入非线性)。
  • 正则化层:Dropout(随机失活防过拟合)、权重衰减(L2正则化)。
3. 损失函数与优化目标
  • 分类任务:交叉熵损失(Cross-Entropy,多分类用Softmax+CE,二分类用BCELoss)。
  • 回归任务:均方误差(MSE)、平均绝对误差(MAE)。
  • 生成任务:对抗损失(GAN)、重构损失(VAE)。
  • 多任务学习:联合损失加权求和(如分类+回归的混合损失)。
4. 优化器配置
  • 经典算法:SGD(随机梯度下降)、Adam(自适应学习率,结合动量和RMSprop)、RMSprop(处理非平稳目标)。
  • 超参数:学习率(需衰减策略,如余弦退火)、批次大小(Batch Size,影响训练稳定性)、动量参数(加速收敛)。

三、模型训练:参数学习与过程控制

将数据输入模型,通过优化算法更新参数,核心流程如下:

1. 训练循环(Training Loop)
  • 前向传播:输入数据经网络计算输出预测值( y ^ \hat{y} y^)。
  • 损失计算:对比预测值与真实标签( y y y),得到损失函数值( L L L)。
  • 反向传播:利用链式法则计算损失对各层参数的梯度( ∇ L \nabla L L)。
  • 参数更新:优化器根据梯度调整参数(如 w ← w − η ∇ w w \leftarrow w - \eta \nabla w wwηw η \eta η为学习率)。
2. 批量处理(Batch Processing)
  • 小批量梯度下降(Mini-Batch SGD):每次处理一个Batch(如32/64/128样本),平衡计算效率与梯度稳定性。
  • 数据加载:使用数据加载器(DataLoader)异步读取数据,支持并行处理(如PyTorch的Dataloader)。
3. 过拟合与欠拟合处理
  • 过拟合(高方差):训练损失低但验证损失高。
    • 解决方案:增加数据增强、早停(Early Stopping)、正则化(Dropout/L2)、模型简化(减小网络规模)。
  • 欠拟合(高偏差):训练损失高,模型未学到关键特征。
    • 解决方案:复杂模型(更深网络)、调整超参数(增大学习率)、检查数据质量(是否标注错误)。
4. 训练监控与日志
  • 指标记录:训练/验证损失、准确率、F1值、AUC-ROC等。
  • 可视化工具:TensorBoard(记录曲线)、W&B(Weights & Biases,追踪超参数与结果)。
  • 异常检测:梯度爆炸/消失(用梯度裁剪、权重初始化改进,如Xavier初始化)。

四、模型验证:评估泛化能力与调优

通过独立数据集检验模型效果,核心步骤:

1. 验证集评估
  • 单次划分:固定训练/验证/测试集,适用于数据充足场景。
  • 交叉验证(Cross-Validation)
    • K折交叉验证(K-Fold):将数据分为K份,每次用K-1份训练,1份验证,降低随机性影响。
    • 留一法(Leave-One-Out):极端K折(K=N,N为样本数),计算成本高,适用于小数据集。
2. 评估指标(依任务类型选择)
  • 分类任务:准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1-Score、混淆矩阵、AUC-ROC。
  • 回归任务:MSE、MAE、R²分数(拟合度)。
  • 生成任务:Inception Score(IS,图像质量与多样性)、Frechet Inception Distance(FID,生成分布与真实分布的距离)。
  • NLP任务:BLEU分数(机器翻译)、ROUGE(文本摘要)、困惑度(Perplexity,语言模型)。
3. 超参数调优
  • 搜索策略
    • 网格搜索(Grid Search,穷举指定范围,精度高但耗时)。
    • 随机搜索(Random Search,高效探索重要超参数,如学习率)。
    • 贝叶斯优化(Bayesian Optimization,动态调整搜索方向,适合高成本任务)。
  • 关键超参数:网络层数/神经元数、学习率、Batch Size、Dropout率、正则化系数。
4. 模型选择与集成
  • 单模型优化:选择验证集表现最佳的模型版本(如保存最低验证损失的Checkpoint)。
  • 模型集成:提升效果(如Bagging、Boosting、Stacking,多模型预测结果融合)。

五、模型优化:从训练到部署的桥梁

在验证后对模型进行针对性改进,提升实用性:

1. 模型压缩(针对部署场景)
  • 参数剪枝:删除低重要性连接(如L1正则化筛选权重,结构化剪枝裁剪整个神经元/层)。
  • 量化:降低参数精度(32位浮点→16位/8位整数,甚至二值化,减少计算量)。
  • 知识蒸馏(Knowledge Distillation):用教师模型(大模型)输出软标签指导学生模型(小模型)训练,保留知识。
2. 硬件适配优化
  • 算子优化:针对GPU/TPU/NPU等硬件加速库(如TensorRT、ONNX Runtime)优化计算图。
  • 模型轻量化:设计高效架构(MobileNet的深度可分离卷积、ShuffleNet通道洗牌)。
3. 鲁棒性增强
  • 对抗训练:在输入中添加对抗扰动(如FGSM攻击生成样本),提升模型抗干扰能力。
  • 领域适应:迁移学习(预训练模型微调)解决训练/测试数据分布差异(如跨域图像分类)。

六、模型推理:从部署到实际应用

将训练好的模型转化为可服务的系统,核心步骤:

1. 模型保存与加载
  • 格式:PyTorch的.pth/.pt、TensorFlow的SavedModel/Checkpoint、通用格式ONNX(跨框架兼容)。
  • 权重与架构:保存完整模型(含架构)或仅权重(需代码重建架构,更轻量)。
2. 输入处理
  • 预处理适配:与训练时一致(如图像归一化、文本Tokenization),确保输入维度匹配模型预期。
  • 批处理支持:支持批量推理提升吞吐量(如一次处理多个样本)。
3. 推理服务部署
  • 部署形态
    • 服务器端:REST API(Flask/FastAPI)、gRPC(高性能RPC)、模型服务框架(TensorFlow Serving、TorchServe)。
    • 移动端/边缘端:转换为ONNX/TFLite/NNAPI格式,适配手机/嵌入式设备(如iOS Core ML、Android NNAPI)。
  • 性能优化
    • 延迟(Latency):优化计算图(去除冗余节点)、并行计算。
    • 吞吐量(Throughput):增大Batch Size、模型并行/数据并行。
4. 输出后处理
  • 结果解析:分类任务映射标签名称、生成任务解码(如NLP的Token转文本)。
  • 置信度过滤:设定阈值过滤低置信度预测(如目标检测过滤低分数边界框)。
5. 实时监控与迭代
  • 在线指标:推理延迟、吞吐量、错误率、真实场景准确率(A/B测试)。
  • 持续迭代:收集新数据重新训练(增量学习),更新模型以适应数据分布变化。

核心环节总结与关键挑战

环节核心目标关键技术/挑战
数据准备高质量、适配任务的数据标注成本、数据不平衡、隐私合规(如GDPR)
模型构建设计高效架构与目标函数架构创新(如Transformer)、损失函数设计
模型训练高效稳定地学习参数梯度消失/爆炸、过拟合、训练效率(分布式训练)
模型验证评估泛化能力与调优评估指标合理性、超参数搜索复杂度
模型优化提升实用性与部署适配压缩算法效率、硬件算子优化
模型推理可靠高效的实际应用部署兼容性、实时性要求、安全攻击(对抗样本)

深度学习的核心环节是一个闭环系统,每个步骤都需要结合任务特性、数据规模、计算资源进行精细化调整。从学术研究到工业落地,关键在于平衡模型性能、效率与实用性,而持续的迭代优化(如结合实时反馈更新模型)是保持模型生命力的关键。


深度学习一般流程框架概览

一、问题定义与目标明确(10%)

1. 任务类型定位
  • 基础任务分类
    • 监督学习:分类(二分类/多分类,Softmax输出)、回归(连续值预测,MSE损失)
    • 无监督学习:聚类(K-means)、降维(Autoencoder)、生成(GAN/VAE)
    • 半监督学习:结合少量标注数据+大量无标注数据(伪标签技术)
    • 强化学习:序列决策(AlphaGo,状态-动作空间建模)
  • 领域特定任务
    • 计算机视觉:图像分类/检测/分割(YOLO/FCN)、视频理解(3D CNN)
    • 自然语言处理:文本分类/生成(Transformer)、机器翻译(Seq2Seq)、NER命名实体识别
    • 语音处理:语音识别(CTC损失)、语音合成(Tacotron)
    • 结构化数据:推荐系统(矩阵分解+DNN)、金融风控(逻辑回归+Embedding)
2. 评估指标设计
  • 分类任务:准确率/精确率/召回率/F1-score、AUC-ROC(不平衡数据)
  • 回归任务:MSE/MAE/R2-score、RMSE(量纲敏感)
  • 生成任务:IS(Inception Score)、FID(Frechet Inception Distance)、人工审美评估
  • 时序任务:时序交叉验证、动态时间规整(DTW)距离
  • 多目标优化:帕累托最优解(Pareto Front),加权损失函数设计
3. 可行性分析
  • 数据可行性:标注成本(医疗影像需专家标注)、数据规模(小数据用迁移学习,大数据用原生模型)
  • 计算资源:GPU显存需求(大模型需32GB+显存,分布式训练规划)
  • 业务约束:延迟要求(实时推荐需<100ms,离线训练可放宽)、合规性(GDPR数据隐私)

二、数据工程(25%)

1. 数据收集与标注
  • 数据来源
    • 公开数据集(ImageNet/CIFAR-100)、网络爬取(需注意版权)、传感器采集(IoT设备)
    • 数据增强生成(GAN合成数据,用于数据稀缺场景)
  • 标注流程
    • 标注工具:CVAT(图像标注)、Label Studio(多模态标注)、Prodigy(主动学习标注)
    • 质量控制:多人标注一致性检查(Kappa系数)、标注错误清洗(异常样本检测)
2. 数据预处理
  • 结构化数据
    • 缺失值处理:删除(高缺失率)、插值(均值/中位数/回归插值)
    • 特征工程:独热编码(One-Hot,低基数类别)、嵌入编码(Embedding,高基数类别)
    • 标准化:Z-score(特征均值方差归一化)、归一化(Min-Max缩放到[0,1])
  • 非结构化数据
    • 图像:Resize/Crop(保持长宽比)、灰度化(RGB转单通道)、通道标准化(减均值除标准差)
    • 文本:分词(BPE子词分割)、序列填充(Padding到固定长度)、词向量生成(Word2Vec/GloVe)
    • 音频:梅尔频谱图转换(MFCC特征)、降噪(谱减法)、重采样(统一采样率)
3. 数据划分与增强
  • 数据集划分
    • 标准划分:训练集(60%)+验证集(20%)+测试集(20%)
    • 时序数据:时间序列划分(按时间顺序,避免随机划分)
    • 分层抽样:保持类别分布一致(适用于不平衡数据)
  • 数据增强技术
    • 图像:翻转/旋转/缩放、CutOut(随机遮挡)、MixUp(样本混合)、AutoAugment(自动搜索增强策略)
    • 文本:同义词替换、随机删除/插入、EDA(Easy Data Augmentation)
    • 通用:对抗样本生成(FGSM对抗训练,提升鲁棒性)

三、模型架构设计(20%)

1. 基础网络组件
  • 核心层类型
    • 卷积层:2D Conv(图像)、3D Conv(视频)、转置卷积(上采样)
    • 循环层:LSTM/GRU(解决梯度消失)、双向RNN(捕捉双向依赖)
    • 注意力层:Self-Attention(Transformer核心)、多头注意力(Multi-Head)、全局注意力(Global Attention)
    • 归一化层:BatchNorm(训练阶段用批量统计量)、LayerNorm(逐层归一化,适合NLP)、InstanceNorm(图像生成)
    • 激活函数:ReLU(避免梯度饱和)、Swish(自门控激活)、GELU(平滑ReLU变体)
  • 网络范式
    • CNN家族:ResNet(残差连接解决梯度退化)、DenseNet(密集连接加强特征流动)、EfficientNet(复合缩放优化)
    • RNN家族:Transformer(位置编码替代循环结构)、LSTM-CRF(序列标注任务)、Temporal Convolution Network(TCN,因果卷积处理时序数据)
    • 生成模型:GAN(生成器+判别器对抗训练)、VAE(变分下界优化)、Diffusion Model(去噪扩散过程)
    • 多模态模型:ViT(图像Transformer)、CLIP(图文对比学习)、多模态融合(早期融合/晚期融合架构)
2. 架构设计策略
  • 迁移学习
    • 冻结预训练层:仅训练分类头(小数据场景)
    • 微调全模型:在目标任务上更新所有参数(数据充足时)
    • 预训练范式:自监督学习(SimCLR对比学习)、掩码语言模型(BERT)
  • 模型变体选择
    • 轻量模型:MobileNet(深度可分离卷积)、ShuffleNet(通道洗牌降低计算量)
    • 分布式架构:数据并行(多卡复制模型,同步/异步梯度更新)、模型并行(分层拆分模型到不同设备)
  • 自动化设计
    • 神经架构搜索(NAS):强化学习/进化算法搜索最优网络结构
    • 超参数优化:网格搜索(全枚举)、贝叶斯优化(高斯过程建模)、随机搜索(高效处理高维空间)

四、训练配置与优化(15%)

1. 训练参数设置
  • 优化器选择
    • 基础优化器:SGD(带动量)、Adam(自适应学习率)、RMSprop(均方根传播)
    • 改进版本:AdamW(权重衰减解耦)、AdaFactor(内存高效,适合大模型)
  • 损失函数设计
    • 分类:交叉熵损失(CE)、焦点损失(Focal Loss,难例挖掘)
    • 回归:L1/L2损失、Huber损失(鲁棒回归,结合L1/L2)
    • 度量学习:三元组损失(Triplet Loss,样本间距约束)
    • 多任务:硬参数共享(底层共享,顶层任务特定)、动态权重平衡(梯度归一化)
  • 超参数空间
    • 网络参数:层数/通道数/隐藏单元数
    • 训练参数:Batch Size(大batch需更大学习率)、Epoch数、学习率调度(余弦退火/阶梯衰减)
    • 正则化:Dropout(随机失活神经元)、Weight Decay(L2正则)、Early Stopping(验证集早停)
2. 训练过程实现
  • 正向传播:输入经网络计算得到logits/预测值,关键在于计算图构建(静态图TF vs 动态图PyTorch)
  • 反向传播:自动微分(Autograd)计算梯度,注意梯度裁剪(防止爆炸)、混合精度训练(FP16减少显存占用)
  • 分布式训练
    • 数据并行:DP(单卡控制) vs DDP(多卡独立计算,梯度同步)
    • 模型并行:跨设备拆分模型层(适合超大模型,如GPT-3的MoE架构)
  • 训练监控
    • 指标可视化:TensorBoard(损失/准确率曲线)、Weights & Biases(W&B,实验跟踪)
    • 异常检测:梯度消失(接近0的梯度)、梯度爆炸(NaN/inf值)、训练-验证损失倒挂(过拟合信号)

五、模型评估与调试(10%)

1. 评估协议
  • 标准流程
    1. 在验证集调参(避免测试集数据泄漏)
    2. 最终在测试集报告泛化性能
    3. 交叉验证:K折交叉(小数据增强评估稳定性)
  • 特殊场景处理
    • 不平衡数据:分层抽样+类别加权损失
    • 时序数据:滚动预测(Rolling Forecast)评估长期预测能力
    • 多标签分类:汉明损失、Jaccard系数
2. 深度分析技术
  • 可视化工具
    • 图像:类激活图(CAM)、梯度加权类激活图(Grad-CAM)定位关键区域
    • 文本:注意力热力图(Transformer层可视化)、词重要性排序(SHAP值/梯度权重)
    • 结构化数据:特征重要性分析(Permutation Importance)、SHAP/LIME模型解释
  • 误差分析
    • 混淆矩阵:识别易混淆类别(如“狗”误判“猫”)
    • 错误样本集:手动标注错误类型(数据噪声/模型偏差/边界情况)
    • 对抗样本测试:评估模型鲁棒性(FGSM/PGD攻击下的准确率下降幅度)

六、优化迭代(10%)

1. 模型优化策略
  • 超参数调优
    • 贝叶斯优化:适用于非凸空间,利用历史数据减少评估次数
    • 随机搜索:在高维空间效率优于网格搜索,重点搜索关键参数
    • 自动化工具:Optuna(支持分布式调优)、Ray Tune(大规模并行)
  • 架构调整
    • 增加容量:深层网络(解决欠拟合)、增大通道数/添加残差连接
    • 减少过拟合:更强的数据增强、更大Dropout率、知识蒸馏(Teacher-Student模型)
    • 跨模态融合:引入辅助任务(多任务学习提升主任务性能)
  • 数据优化
    • 难例挖掘:主动学习(查询模型不确定样本进行标注)
    • 数据清洗:识别并删除离群样本(基于马氏距离/孤立森林)
    • 增量学习:处理概念漂移(在线学习+模型更新策略)
2. 重训练策略
  • 热启动:加载历史最佳模型参数继续训练(避免从头开始)
  • 课程学习:从简单样本逐步过渡到复杂样本(提升训练稳定性)
  • 模型融合
    • 集成方法:Bagging(降低方差)、Boosting(提升偏差)、Stacking(多层模型组合)
    • 模型平均:加权平均(验证集表现加权)、Snapshot Ensembles(不同训练轨迹模型平均)

七、部署与生产化(5%)

1. 模型转换与优化
  • 格式转换
    • PyTorch转ONNX(跨框架兼容)、TensorFlow转TensorRT(GPU推理加速)
    • 量化技术:FP32→FP16→INT8(减少显存占用,提升推理速度)
  • 推理优化
    • 图优化:常量折叠(Constant Folding)、算子融合(Operator Fusion)
    • 硬件适配:GPU优化(CUDA核融合)、TPU专用算子(Google Edge TPU)
    • 轻量化:模型剪枝(结构化剪枝/非结构化剪枝)、知识蒸馏(Student模型部署)
2. 部署架构设计
  • 服务化部署
    • 框架选择:TensorFlow Serving(高性能)、Flask/FastAPI(灵活定制)、TorchServe(PyTorch原生支持)
    • 容器化:Docker镜像打包(环境一致性)、Kubernetes集群管理(弹性扩缩容)
  • 端侧部署
    • 移动端:Core ML(iOS)、NNAPI(Android)、TensorFlow Lite(跨平台)
    • 嵌入式:NCNN/MNN(轻量级推理框架,低内存占用)
  • 监控体系
    • 性能监控:延迟/吞吐量/显存占用(Prometheus+Grafana)
    • 数据监控:输入数据分布漂移(KS检验)、概念漂移检测(模型预测概率分布变化)
    • 异常处理:熔断机制(过载保护)、灰度发布(A/B测试新旧版本)

八、持续迭代(5%)

1. 模型生命周期管理
  • 版本控制:DVC(数据版本控制)+模型注册表(MLflow Model Registry)
  • 再训练策略:定时再训练(按周期)vs 触发式再训练(漂移检测到阈值)
  • 伦理考量
    • 公平性:检测预测偏差(不同群体的准确率差异)、对抗偏见算法(Reweighting样本)
    • 可解释性:满足医疗/金融等领域的可解释性要求(SHAP/LIME强制解释)
    • 隐私保护:联邦学习(本地训练,参数聚合)、差分隐私(数据扰动保护个体隐私)
2. 工程化工具链
  • 实验管理:Weights & Biases(跟踪超参数/指标/代码版本)
  • 自动化ML:AutoKeras(自动化模型开发)、H2O.ai(低代码AI平台)
  • MLOps实践:CI/CD流水线(模型训练→评估→部署自动化)、模型监控报警(Slack/DingTalk通知)

知识体系图谱

深度学习流程
├─ 问题定义(任务/指标/可行性)
├─ 数据工程(收集/清洗/增强/划分)
├─ 模型设计(组件/架构/迁移学习)
├─ 训练配置(优化器/损失/超参数)
├─ 训练过程(正向/反向/分布式)
├─ 模型评估(协议/分析/可视化)
├─ 优化迭代(调优/架构/数据优化)
├─ 部署上线(转换/推理/监控体系)
└─ 持续迭代(版本/伦理/工程化)

上述流程涵盖从问题建模到生产部署的全生命周期,包括经典算法(CNN/RNN/Transformer)、训练技巧(正则化/数据增强/优化器)、工程实践(分布式训练/模型量化/部署框架)、前沿技术(自监督学习/神经架构搜索/联邦学习),并涉及数据偏差、可解释性等现代挑战。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2346797.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

业绩回暖、股价承压,三只松鼠赴港上市能否重构价值锚点?

在营收重返百亿俱乐部后&#xff0c;三只松鼠再度向资本市场发起冲击。 4月25日&#xff0c;这家坚果零食巨头正式向港交所递交上市申请书&#xff0c;若成功登陆港股&#xff0c;将成为国内首个实现“AH”双上市的零食品牌。 其赴港背后的支撑力&#xff0c;显然来自近期披露…

JAVA-StringBuilder使用方法

JAVA-StringBuilder使用方法 常用方法 append(Object obj) 追加内容到末尾 sb.append(" World"); insert(int offset, Object obj) 在指定位置插入内容 sb.insert(5, “Java”); delete(int start, int end) 删除指定范围的字符 sb.delete(0, 5); replace(int start…

【Python】Matplotlib:立体永生花绘制

本文代码部分实现参考自CSDN博客&#xff1a;https://blog.csdn.net/ak_bingbing/article/details/135852038 一、引言 Matplotlib作为Python生态中最著名的可视化库&#xff0c;其三维绘图功能可以创造出令人惊叹的数学艺术。本文将通过一个独特的参数方程&#xff0c;结合极…

Unity AI-使用Ollama本地大语言模型运行框架运行本地Deepseek等模型实现聊天对话(一)

一、Ollama介绍 官方网页&#xff1a;Ollama官方网址 中文文档参考&#xff1a;Ollama中文文档 相关教程&#xff1a;Ollama教程 Ollama 是一个开源的工具&#xff0c;旨在简化大型语言模型&#xff08;LLM&#xff09;在本地计算机上的运行和管理。它允许用户无需复杂的配置…

SAP /SDF/SMON配置错误会导致HANA OOM以及Disk Full的情况

一般来说&#xff0c;为了保障每日信息收集&#xff0c;每个企业都会配置/SDF/SMON的监控。这样在出现性能问题时&#xff0c;可以通过收集到的snapshot进行分析检查。如果/SDF/SMON在配置时选取了过多的记录项&#xff0c;或者选择了过低的时间间隔[Interval in seconds],那显…

CMU和苹果公司合作研究机器人长序列操作任务,提出ManipGen

我们今天来介绍一项完成Long-horizon任务的一项新的技术&#xff1a;ManipGen。 什么叫Long-horizon&#xff1f;就是任务比较长。说到底&#xff0c;也是任务比较复杂。 那么这个技术就给我们提供了一个非常好的解决这类问题的思路&#xff0c;同时&#xff0c;也取得了不错的…

大模型(LLMs)强化学习—— PPO

一、大语言模型RLHF中的PPO主要分哪些步骤&#xff1f; 二、举例描述一下 大语言模型的RLHF&#xff1f; 三、大语言模型RLHF 采样篇 什么是 PPO 中 采样过程&#xff1f;介绍一下 PPO 中 采样策略&#xff1f;PPO 中 采样策略中&#xff0c;如何评估“收益”&#xff1f; …

Maven多模块工程版本管理:flatten-maven-plugin扁平化POM

&#x1f9d1; 博主简介&#xff1a;CSDN博客专家&#xff0c;历代文学网&#xff08;PC端可以访问&#xff1a;https://literature.sinhy.com/#/?__c1000&#xff0c;移动端可微信小程序搜索“历代文学”&#xff09;总架构师&#xff0c;15年工作经验&#xff0c;精通Java编…

视频汇聚平台EasyCVR赋能高清网络摄像机:打造高性价比视频监控系统

在现代视频监控系统中&#xff0c;高清网络摄像机作为核心设备&#xff0c;其性能和配置直接影响监控效果和整体系统的价值。本文将结合EasyCVR视频监控的功能&#xff0c;探讨如何在满足使用需求的同时&#xff0c;优化监控系统的设计&#xff0c;降低项目成本&#xff0c;并提…

Unity 接入阿里的全模态大模型Qwen2.5-Omni

1 参考 根据B站up主阴沉的怪咖 开源的项目的基础上修改接入 AI二次元老婆开源项目地址(unity-AI-Chat-Toolkit): Github地址&#xff1a;https://github.com/zhangliwei7758/unity-AI-Chat-Toolkit Gitee地址&#xff1a;https://gitee.com/DammonSpace/unity-ai-chat-too…

Nginx知识点

Nginx发展历史 Nginx 是由俄罗斯程序员 Igor Sysoev 开发的高性能开源 Web 服务器、反向代理服务器和负载均衡器 &#xff0c;其历史如下&#xff1a; 起源与早期开发&#xff08;2002 - 2004 年&#xff09; 2002 年&#xff0c;当时 Igor Sysoev 在为俄罗斯门户网站 Rambl…

Mysql从入门到精通day6————时间和日期函数精讲

关于Mysql的日期和时间计算函数种类非常繁多,此处我们对常用的一些函数的用法通过实例演示让读者体会他们的用法,文章末尾也给出了时间和日期计算的全部函数 函数1:curdate()和current_date()函数 作用:获取当前日期 select curdate(),current_date();运行效果:

逻辑漏洞安全

逻辑漏洞是指由于程序逻辑不严导致一些逻辑分支处理错误造成的漏洞。 在实际开发中&#xff0c;因为开发者水平不一没有安全意识&#xff0c;而且业务发展迅速内部测试没有及时到位&#xff0c;所以常常会出现类似的漏洞。 由于开发者/设计者在开发过程中&#xff0c;由于代码…

Github 热点项目 rowboat 一句话生成多AI智能体!5分钟搭建企业级智能工作流系统

今日高星项目推荐&#xff1a;rowboat凭借1705总星数成为智能协作工具黑马&#xff01;亮点速递&#xff1a;①自然语言秒变AI流水线——只需告诉它“帮外卖公司处理配送异常”&#xff0c;立刻生成多角色协作方案&#xff1b;②企业工具库即插即用&#xff0c;Python包HTTP接口…

(26)VTK C++开发示例 ---将点坐标写入PLY文件

文章目录 1. 概述2. CMake链接VTK3. main.cpp文件4. 演示效果 更多精彩内容&#x1f449;内容导航 &#x1f448;&#x1f449;VTK开发 &#x1f448; 1. 概述 本示例演示了将球体数据写入ply文件&#xff0c;并从ply文件读取显示&#xff1b; PLY 文件&#xff08;Polygon Fil…

2025蓝桥省赛c++B组第二场题解

前言 这场的题目非常的简单啊&#xff0c;至于为什么有第二场&#xff0c;因为当时河北正在刮大风被迫停止了QwQ&#xff0c;个人感觉是历年来最简单的一场&#xff0c;如果有什么不足之处&#xff0c;还望补充。 试题 A: 密密摆放 【问题描述】 小蓝有一个大箱子&#xff0…

vue3 vite打包后动态修改打包后的请求路径,无需打多个包给后端

整体思路和需求 部署多个服务器环境的时候&#xff0c;需要多次打包很麻烦&#xff0c;所以需要打包之后动态的修改 1.创建一个webconfig文件夹 2.在自己封装的接口文件中 判断是否在生产环境&#xff0c;然后将数据保存到vuex 中 代码&#xff1a; // 创建axios服务的函数 …

Nacos-SpringBoot 配置无法自动刷新问题排查

背景 Nacos SpringBoot版本中&#xff0c;提供了NacosValue注解&#xff0c;支持控制台修改值时&#xff0c;自动刷新&#xff0c;但是今天遇见了无法自动刷新的问题。 环境 SpringBoot 2.2.x nacos-client&#xff1a;2.1.0 nacos-config-spring-boot-starter&#xff1a;0…

【RabbitMQ消息队列】详解(一)

初识RabbitMQ RabbitMQ 是一个开源的消息代理软件&#xff0c;也被称为消息队列中间件&#xff0c;它遵循 AMQP&#xff08;高级消息队列协议&#xff09;&#xff0c;并且支持多种其他消息协议。 核心概念 生产者&#xff08;Producer&#xff09;&#xff1a;创建消息并将其…

Jenkins Pipeline 构建 CI/CD 流程

文章目录 jenkins 安装jenkins 配置jenkins 快速上手在 jenkins 中创建一个新的 Pipeline 作业配置Pipeline运行 Pipeline 作业 Pipeline概述Declarative PipelineScripted Pipeline jenkins 安装 安装环境&#xff1a; Linux CentOS 10&#xff1a;Linux CentOS9安装配置Jav…