大模型算法面试题(十五)

news2024/11/17 12:47:36

本系列收纳各种大模型面试题及答案。

1、大模型LLM进行SFT如何对样本进行优化

大模型LLM(Language Model,语言模型)进行SFT(Structured Fine-Tuning,结构化微调)时,对样本的优化是提升模型性能的关键步骤。以下是一些关于如何对样本进行优化的建议:

一、样本选择与预处理

  1. 针对性选择样本
    • 根据特定任务或领域的需求,选择具有代表性和多样性的样本。这些样本应覆盖任务的主要方面和边缘情况。
    • 优先选择高质量、标注准确的样本,避免使用错误或模糊的标注数据。
  2. 数据清洗
    • 去除重复、冗余或无效的样本,减少噪声数据的干扰。
    • 对样本进行格式化处理,确保输入数据的格式与模型训练要求一致。
  3. 数据增强
    • 通过同义词替换、句子重组、回译等方法增加样本的多样性,提高模型的泛化能力。
    • 使用数据增强技术生成更多的训练样本,特别是在样本量不足的情况下。

二、样本标注与质量控制

  1. 精细标注
    • 对样本进行精细标注,确保标注的准确性和一致性。
    • 使用多轮标注和审核机制,提高标注质量。
  2. 质量控制
    • 定期对标注数据进行质量检查,及时发现并纠正错误标注。
    • 建立反馈机制,允许标注人员或专家对标注结果进行反馈和修正。

三、样本加权与采样策略

  1. 样本加权
    • 根据样本的重要性和难度对样本进行加权处理,使模型在训练过程中更加关注重要或困难的样本。
    • 通过调整样本权重来平衡不同类别或领域的样本数量,避免模型出现偏差。
  2. 采样策略
    • 采用合适的采样策略,如随机采样、分层采样等,确保训练过程中样本的均匀性和代表性。
    • 在样本量较大的情况下,可以使用批量采样或在线采样的方式来提高训练效率。

四、结合模型特性进行优化

  1. 理解模型特性
    • 深入了解所使用的LLM模型的特性和优势,以便更好地利用这些特性进行样本优化。
    • 分析模型在特定任务上的表现,找出模型的优势和不足之处。
  2. 针对性优化
    • 根据模型特性对样本进行优化调整,如调整样本的输入格式、增加与模型特性相关的特征等。
    • 利用模型的特点来设计更有效的训练策略和损失函数,以提高模型的性能。

五、持续迭代与反馈

  1. 持续迭代
    • 在训练过程中不断监控模型的性能表现,并根据表现进行样本和训练策略的迭代优化。
    • 定期对模型进行评估和测试,确保模型在目标任务上的性能持续提升。
  2. 反馈机制
    • 建立用户反馈机制,收集用户对模型输出的评价和建议。
    • 根据用户反馈对样本和模型进行进一步的优化和调整。

综上所述,大模型LLM进行SFT时,对样本的优化需要从样本选择与预处理、标注与质量控制、加权与采样策略、结合模型特性进行优化以及持续迭代与反馈等多个方面入手。通过综合运用这些策略和方法,可以显著提高模型的性能和效果。

2、模型参数迭代实验步骤?

模型参数迭代实验步骤通常涉及多个关键阶段,旨在通过不断优化模型参数来提高模型的性能。以下是一个典型的模型参数迭代实验步骤概述:

一、实验准备

  1. 明确目标
    • 确定模型需要解决的具体问题或任务。
    • 设定可量化的性能评估指标,如准确率、召回率、F1分数等。
  2. 数据准备
    • 收集并整理实验所需的数据集。
    • 对数据进行预处理,包括清洗、标注、格式化等。
    • 划分数据集为训练集、验证集和测试集,通常比例为70%:15%:15%或类似比例。
  3. 环境搭建
    • 搭建实验所需的软硬件环境,包括安装必要的编程语言和库(如Python、TensorFlow、PyTorch等)。
    • 配置实验所需的计算资源,如GPU或CPU。

二、模型选择

  1. 选择合适的模型架构
    • 根据任务特点和数据集特性选择合适的模型架构,如神经网络、决策树、随机森林等。
  2. 初始化模型参数
    • 使用随机值、预训练权重或其他策略初始化模型参数。

三、模型训练

  1. 设置超参数
    • 确定学习率、批处理大小(batch size)、迭代次数(epoch)、正则化强度等超参数。
  2. 训练模型
    • 使用训练集数据对模型进行训练。
    • 在每个epoch结束后,使用验证集评估模型的性能,并记录关键指标。
  3. 参数更新
    • 根据损失函数和梯度下降等优化算法更新模型参数。
    • 可以采用小批量梯度下降(Mini-batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)等策略。

四、参数调优

  1. 手动调参
    • 基于实验经验和直觉,手动调整超参数,观察模型性能的变化。
  2. 自动调参
    • 使用网格搜索(Grid Search)、随机搜索(Random Search)或贝叶斯优化(Bayesian Optimization)等自动调参方法,在超参数空间内寻找最优参数组合。

五、模型评估

  1. 使用测试集评估模型
    • 在模型训练完成后,使用独立的测试集评估模型的最终性能。
    • 确保测试集在训练过程中未被使用,以保证评估结果的客观性和准确性。
  2. 性能分析
    • 分析模型在不同评估指标上的表现,识别模型的优点和不足。
    • 根据需要调整模型架构或参数设置,进一步优化模型性能。

六、迭代优化

  1. 反馈与迭代
    • 根据模型评估结果和性能分析,制定改进方案。
    • 重复上述步骤,不断迭代优化模型参数和架构,直到达到满意的性能表现。

七、实验记录与报告

  1. 记录实验过程
    • 详细记录实验过程中的关键步骤、参数设置、实验结果和性能分析等内容。
  2. 撰写实验报告
    • 根据实验记录撰写详细的实验报告,包括实验目的、方法、结果和结论等内容。

以上步骤提供了一个通用的模型参数迭代实验框架。在实际应用中,可以根据具体任务和数据集的特点进行适当的调整和扩展。

3、为什么需要进行参选微调?参数微调的原因有哪些?

进行参数微调(Fine-tuning)在机器学习和深度学习领域是非常重要的步骤,尤其是在处理特定任务或应用预训练模型到新的数据集时。以下是进行参数微调的主要原因:

  1. 任务特异性
    预训练模型通常是在大规模、广泛的数据集上训练的,这些数据集可能涵盖了多种任务和领域。然而,当我们将这些模型应用到具体任务时,如情感分析、图像分类或自然语言处理等,这些任务可能具有特定的数据分布和特征。通过微调模型参数,我们可以使模型更加适应特定任务的数据分布,从而提高性能。

  2. 数据差异性
    不同数据集之间存在差异,包括数据分布、特征表示、噪声水平等。直接使用预训练模型可能无法充分利用新数据集的特点,因为预训练过程中学习到的特征可能与新数据集不完全匹配。通过微调,模型可以学习到新数据集中特有的特征表示,从而提高在新数据集上的表现。

  3. 提高性能
    微调通常可以显著提高模型在特定任务上的性能。这是因为微调过程允许模型在已经学习到的通用知识基础上,进一步学习特定任务的细节和特征。这种学习过程是渐进的,有助于模型更好地适应新任务的需求。

  4. 减少训练时间和资源
    从头开始训练一个深度学习模型需要大量的时间和计算资源。而使用预训练模型进行微调可以显著减少训练时间和所需的资源。因为预训练模型已经学习到了大量有用的特征表示和模式识别能力,微调过程只需要在这些基础上进行微调即可。

  5. 解决过拟合问题
    在小型数据集上训练深度学习模型时,很容易出现过拟合问题。过拟合是指模型在训练数据上表现良好,但在测试数据上表现不佳的现象。使用预训练模型进行微调可以帮助缓解这个问题,因为预训练模型已经学习到了丰富的特征表示和泛化能力,这有助于模型在小型数据集上保持较好的泛化性能。

  6. 适应新的应用场景
    随着技术的发展和应用的拓展,新的应用场景不断涌现。这些新场景可能需要处理新的数据类型、解决新的问题或实现新的功能。通过微调预训练模型,我们可以快速地将模型应用到新的场景中,并根据具体需求进行定制和优化。

综上所述,参数微调是深度学习领域中提高模型性能、减少训练时间和资源、解决过拟合问题以及适应新应用场景的重要手段。

4、模型参数微调的方式有那些?你最常用哪些方法?

模型参数微调的方式多种多样,这些方法旨在通过调整模型参数来优化模型在特定任务上的性能。以下是一些常见的模型参数微调方式:

一、全微调(Full Fine-tuning)

  • 定义:全微调是指对整个预训练模型进行微调,包括所有的模型参数。在这种方法中,预训练模型的所有层和参数都会被更新和优化,以适应目标任务的需求。
  • 适用场景:通常适用于任务和预训练模型之间存在较大差异的情况,或者任务需要模型具有高度灵活性和自适应能力的情况。
  • 优缺点
    • 优点:可以获得更好的性能,因为模型的所有参数都被优化以适应目标任务。
    • 缺点:需要较大的计算资源和时间,且可能导致模型在原始任务上的性能下降(灾难性遗忘)。

二、部分微调(Partial Fine-tuning)

  • 定义:部分微调是指在微调过程中只更新模型的顶层或少数几层,而保持预训练模型的底层参数不变。
  • 具体方法
    • 微调顶层:只微调预训练模型的顶层,以适应新的任务。这种方法可以保留预训练模型的通用知识,同时通过微调顶层来适应特定任务。
    • 冻结底层:将预训练模型的底层固定不变,只对顶层进行微调。这有助于减少计算资源的使用,并防止底层参数被过度更新而破坏模型的通用性。
  • 适用场景:通常适用于目标任务与预训练模型之间有一定相似性的情况,或者任务数据集较小的情况。

三、参数高效微调(Parameter-Efficient Fine-tuning, PEFT)

  • 定义:PEFT是一种旨在通过微调少量参数就达到接近微调全量参数效果的方法。它包括多种具体技术,如Prompt Tuning、Prefix Tuning等。
  • 具体方法
    • Prompt Tuning:固定模型前馈层参数,仅仅更新部分embedding参数即可实现低成本微调大模型。通过精心设计的输入提示或模板来引导模型生成所需输出。
    • Prefix Tuning:在输入token之前构造一段任务相关的virtual tokens作为Prefix,训练时只更新Prefix部分的参数,而Transformer中的其他部分参数固定。
  • 优点:计算效率高,可以在GPU资源不足的情况下微调大模型。

四、迁移学习(Transfer Learning)

  • 定义:迁移学习是将预训练模型的知识迁移到新的任务中,以提高模型性能。它通常与微调技术结合使用。
  • 方法:通过微调预训练模型的顶层或冻结底层来适应新任务,同时利用预训练模型在大量数据上学到的通用知识。

我最常用的方法

在实际应用中,我最常用的微调方法会根据具体任务和数据集的特点来选择。对于大多数任务,如果计算资源允许,我倾向于使用全微调方法来获得最佳性能。然而,在资源受限的情况下,我会考虑使用部分微调或参数高效微调方法,如Prompt Tuning或Prefix Tuning,以平衡性能和计算资源。此外,迁移学习也是一种非常有用的技术,特别是在处理与预训练模型相似度较高的新任务时。

总的来说,没有一种微调方法是普遍适用的,选择哪种方法取决于具体任务的需求、数据集的特点以及可用的计算资源。

5、prompt tuning 和 prefix tuning在微调上的区别是什么?

Prompt Tuning和Prefix Tuning在微调大型语言模型(LLMs)时存在明显的区别,主要体现在它们对模型进行参数调整的具体位置和方式上。

Prompt Tuning

  1. 定义与核心思想
    • Prompt Tuning是一种针对LLMs的微调方法,其核心思想是在不改变模型主体参数的情况下,通过修改输入序列(即添加或调整一个提示词或模板)来引导模型的行为。
    • 在这种方法中,通常会冻结主模型的全部参数,而只对embedding层的部分参数进行更新。具体来说,是在训练数据前添加一段prompt,只训练prompt的表示层,然后将prompt的embedding和原有模型的embedding拼接在一起组成新的embedding。
  2. 操作方式
    • Prompt Tuning主要关注于输入序列的修改。它通过在输入序列中插入一个或多个精心设计的词汇项(tokens)或提示词(prompt),来向模型提供关于任务的额外信息或上下文。
    • 这些提示词可以是一个问题、一个描述或一个目标语句,它们能够帮助模型更好地理解任务要求,并据此调整其输出。
  3. 优势与应用
    • Prompt Tuning的优势在于其参数效率高,即只需要更新少量的参数即可实现模型的微调。
    • 这种方法在文本生成、摘要等任务中表现出色,因为它允许模型在不改变整体结构的情况下,通过调整输入来适应不同的任务需求。

Prefix Tuning

  1. 定义与核心思想
    • Prefix Tuning是另一种针对LLMs的微调方法,它通过在输入序列或模型内部自回归过程的初始状态中添加可学习的“前缀”参数来实现微调。
    • 与Prompt Tuning不同,Prefix Tuning不仅关注输入序列的修改,还涉及到模型内部计算的调整。
  2. 操作方式
    • 在Prefix Tuning中,一个可学习的“前缀”向量被添加到模型的每一层输入序列前(包括embedding层和模型每一层的输入)。
    • 这些前缀向量与输入序列一起作为注意力机制的输入,从而影响模型对输入序列的理解和表示。
    • 前缀向量在微调过程中是可学习的,它们可以根据特定任务进行调整,以优化模型的性能。
  3. 优势与应用
    • Prefix Tuning的优势在于其能够显著减少需要更新的参数数量,从而提高参数效率。
    • 同时,由于前缀向量是在模型内部自回归过程的初始状态中添加的,它们能够更直接地影响模型的生成行为。
    • 这种方法在问答、文本分类等任务中取得了良好的效果,因为它允许模型在不破坏原有知识的情况下引入新的知识,提高模型的泛化能力。

总结

Prompt Tuning和Prefix Tuning在微调LLMs时的主要区别在于它们对模型进行参数调整的具体位置和方式。Prompt Tuning主要关注输入序列的修改,通过添加提示词来引导模型的行为;而Prefix Tuning则更具体地将可学习的前缀向量应用于模型的每一层输入或内部自回归过程的初始状态中,以影响模型的表示和生成行为。两者都是有效的微调方法,但各自适用于不同的任务和数据集特点。

6、LLaMA-adapter 如何实现稳定训练?

LLaMA-Adapter通过一系列巧妙的设计和技术手段,实现了在微调过程中的稳定训练。以下是实现稳定训练的关键方法:

1. 使用可学习的适应提示(Adaption Prompts)

LLaMA-Adapter在LLaMA模型的顶层Transformer层中插入了一组可学习的适应提示(Prompts)。这些Prompts作为前缀与输入文本标记一起输入到模型中,用于指导模型生成高质量的响应。通过仅更新这些Prompts的参数,LLaMA-Adapter能够有效地减少需要训练的参数数量,从而加速训练过程并提高稳定性。

2. 引入零初始化的注意力机制(Zero-initialized Attention)

在训练初期,随机初始化的Prompts可能会引入较大的噪声,干扰模型的微调过程。为了解决这个问题,LLaMA-Adapter采用了零初始化的注意力机制。具体来说,它使用零向量初始化插入层的注意力机制中的关键组件(如查询、键和值矩阵),并在训练过程中逐渐调整这些参数。通过这种方式,LLaMA-Adapter能够首先保留LLaMA模型中的原始知识,并在训练过程中逐步融入新的指令信号,从而实现稳定的微调。

3. 应用可学习的门控因子(Gating Factor)

为了进一步控制Prompts在训练过程中的影响,LLaMA-Adapter引入了可学习的门控因子。这些门控因子被初始化为零,并在训练过程中逐渐增大。它们用于自适应地调节Prompts在注意力机制中的重要性,从而在保留预训练知识的同时逐步融入新的指令知识。通过这种方式,LLaMA-Adapter能够在不破坏原有模型结构的前提下,实现指令跟随能力的提升。

4. 冻结预训练模型参数

在微调过程中,LLaMA-Adapter冻结了LLaMA模型的主体参数,仅更新Prompts和少量与Prompts相关的参数。这种策略有助于保持模型的稳定性和泛化能力,避免因为过度微调而导致的性能下降。

5. 高效利用计算资源

LLaMA-Adapter通过仅更新少量参数和使用高效的训练策略(如分布式训练),显著降低了训练成本。在8个A100 GPU上,LLaMA-Adapter仅需要不到一小时的时间即可完成微调过程。这种高效的训练方式不仅提高了训练速度,还有助于减少计算资源的浪费。

综上所述,LLaMA-Adapter通过引入可学习的适应提示、零初始化的注意力机制、可学习的门控因子以及冻结预训练模型参数等策略,实现了在微调过程中的稳定训练。这些策略共同作用,使得LLaMA-Adapter能够在保持模型稳定性和泛化能力的同时,快速适应不同的指令跟随任务。

7、LoRA原理与使用技巧有那些?

LoRa(Long Range Radio)技术是一种基于Semtech公司开发的低功耗局域网无线标准,主要用于解决功耗与传输距离之间的矛盾问题。以下是对LoRa原理与使用技巧的详细解析:

一、LoRa原理

  1. 扩频调制技术
    • LoRa采用扩频调制技术(Chirp Spread Spectrum, CSS),这是一种基于线性频率调制(LFM)的调制方式。在传输过程中,LoRa通过线性频率调制产生“啁啾”信号,每个数据包的载波频率随着时间线性变化。这种调制方式允许信号在强干扰环境下保持良好的穿透力与抗多径衰落能力,从而实现远距离传输。
  2. 低功耗设计
    • LoRa设备及其通信协议被设计为低功耗的,这得益于其扩频调制技术和先进的前向纠错编码(FEC)技术。FEC技术增强了数据传输的可靠性,即使在信号强度较低的情况下也能保证一定的数据完整性,从而减少了重传次数,进一步降低了功耗。
  3. 长距离通信
    • LoRa技术通过扩频调制和长码调制(CSS),能够在同样的功耗条件下比其他无线方式传播更远的距离。其通信范围可以达到数公里到数十公里,非常适合于远距离物联网应用。
  4. 多速率支持
    • LoRa支持多种扩频因子选择,以适应不同的传输速率和距离需求。这意味着用户可以根据具体应用场景选择合适的扩频因子,以平衡传输距离和传输速率之间的关系。

二、LoRa使用技巧

  1. 网络规划
    • 在部署LoRa网络时,需要合理规划网关的位置和数量,以确保网络的覆盖范围和通信质量。同时,还需要考虑地形、建筑物等因素对信号传播的影响。
  2. 设备选型
    • 根据应用场景的需求选择合适的LoRa设备和模块。例如,在需要长时间运行的场景中,应选择低功耗、长电池寿命的设备;在需要高速率传输的场景中,则需要考虑使用支持更高扩频因子的设备。
  3. 参数配置
    • 合理配置LoRa设备的参数,如扩频因子、编码率、发射功率等,以优化通信性能和功耗。在实际应用中,可能需要通过实验和测试来确定最佳的参数配置。
  4. 安全防护
    • LoRa网络在安全性方面需要得到重视。虽然LoRaWAN协议已经加强了网络和数据的安全性,但开发者在构建自己的LoRa协议时仍需注意加密和认证机制的实现。
  5. 系统集成
    • LoRa技术通常与物联网平台、云平台等集成使用,以实现数据的收集、处理和分析。在系统集成过程中,需要注意接口协议、数据格式等方面的兼容性。
  6. 维护与优化
    • 定期对LoRa网络进行维护和优化,检查设备的运行状态、网络覆盖情况等指标,及时发现并解决问题。同时,根据实际应用情况对网络进行调整和优化,以提高整体性能。

综上所述,LoRa技术以其低功耗、长距离通信等特点在物联网领域得到了广泛应用。在使用LoRa技术时,需要充分了解其原理和使用技巧,并结合实际应用场景进行合理的规划和配置。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1956003.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

从0开始搭建vue + flask 旅游景点数据分析系统(四):编写前端首页【数据驾驶舱】

本期我们编写数据驾驶舱页面(Dashboard)这个页面。主要任务是引入echarts 组件编写数据驾驶舱页面。 视频教程后续会更新在我的B站:https://space.bilibili.com/1583208775?spm_id_from666.25.0.0 推荐从教程第一集开始从零开始学习:https://blog.csdn…

PyCharm2024 专业版激活设置中文

PyCharm2024 专业版激活设置中文 官网下载最新版:https://www.jetbrains.com/zh-cn/pycharm/download 「hack-jet激活idea家族.zip」链接:https://pan.quark.cn/s/4929a884d8fe 激活步骤: 官网下载安装PyCharm ;测试使用的202…

HDMI的等长要求到底是多少?

四对差分走线对内误差最好做到 5mil 范围之内,对与对的差分误差最好控制在 10mil 范围之内。同时,对与对之间的间距要求做到 15mil,空间准许的情况下尽量拉开,减小串扰。 作者:凡亿教育 https://www.bilibili.com/rea…

VulnHub:doubletrouble1

靶机下载地址 trouble1 信息收集 主机发现 攻击机ip:192.168.31.218,扫描攻击机同网段存活ip。 nmap 192.168.31.0/24 -Pn -T4 确认目标机ip:192.168.31.174 端口扫描 nmap 192.168.31.174 -A -p- -T4 开放了22,80端口。 目录扫描 访…

小白学大模型:LLaMA-Factory 介绍与使用

最近这一两周看到不少互联网公司都已经开始秋招提前批了。 不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。 最近,我们又陆续整理了很多大厂的面试题,帮助一些球友…

Linux:进程信号(二.信号的保存与处理、递达、volatile关键字、SIGCHLD信号)

上次介绍了:(Linux:进程信号(一.认识信号、信号的产生及深层理解、Term与Core))[https://blog.csdn.net/qq_74415153/article/details/140624810] 文章目录 1.信号保存1.1递达、未决、阻塞等概念1.2再次理解信号产生与保存1.3信号…

ES6语法详解,面试必会,通俗易懂版

目录 Set的基本使用WeakSet 使用Set 和 WeakSet 区别内存泄漏示例:使用普通 Set 保存 DOM 节点如何避免这个内存泄漏MapWeakMap 的使用 Set的基本使用 在ES6之前,我们存储数据的结构主要有两种:数组、对象。 在ES6中新增了另外两种数据结构&a…

Pytorch深度学习快速入门(中)

Pytorch深度学习快速入门&#xff08;中&#xff09; 一、Containers&#xff08;神经网络的基本骨架&#xff09;&#xff08;一&#xff09;Module 的使用&#xff08;二&#xff09;Sequential 的使用<搭建小实战> 二、Convolution Layers&#xff08;卷积层&#xff…

加密货币赋能跨境电商:PayPal供应链金融服务如何引领行业新趋势

跨境电商行业近年来呈现出爆发式增长&#xff0c;随着全球化贸易壁垒的降低和数字经济的快速发展&#xff0c;越来越多的商家和消费者跨越国界进行交易。根据eMarketer的数据&#xff0c;全球跨境电商交易额在2023年已超过4万亿美元&#xff0c;并预计在未来几年内仍将保持两位…

Golang | Leetcode Golang题解之第301题删除无效的括号

题目&#xff1a; 题解&#xff1a; func checkValid(str string, lmask, rmask int, left, right []int) bool {cnt : 0pos1, pos2 : 0, 0for i : range str {if pos1 < len(left) && i left[pos1] {if lmask>>pos1&1 0 {cnt}pos1} else if pos2 <…

403 forbidden (13: Permission denied)

403 forbidden (13: Permission denied) 目录 403 forbidden (13: Permission denied) 【常见模块错误】 【解决方案】 欢迎来到我的主页&#xff0c;我是博主英杰&#xff0c;211科班出身&#xff0c;就职于医疗科技公司&#xff0c;热衷分享知识&#xff0c;武汉城市开发者…

手撕Leetcode个人笔记【第二周-数组-链表】

2. 两数相加 中等 给你两个 非空 的链表&#xff0c;表示两个非负的整数。它们每位数字都是按照 逆序 的方式存储的&#xff0c;并且每个节点只能存储 一位 数字。 请你将两个数相加&#xff0c;并以相同形式返回一个表示和的链表。 你可以假设除了数字 0 之外&#xff0c;…

初识HTML文件,创建自己的第一个网页!

本文旨在初步介绍HTML&#xff08;超文本标记语言&#xff09;&#xff0c;帮助读者理解HTML中的相关术语及概念&#xff0c;并使读者在完成本文的阅读后可以快速上手编写一个属于自己的简易网页。 一、HTML介绍 HTML(全称HyperText Markup Language&#xff0c;超文本标记语言…

探索Python的进度条神器:tqdm

文章目录 探索Python的进度条神器&#xff1a;tqdm一、背二、tqdm简介三、安装tqdm四、tqdm的五个简单使用示例五、tqdm在不同场景下的应用六、常见问题及解决方案七、总结 探索Python的进度条神器&#xff1a;tqdm 一、背 景&#xff1a;为什么选择tqdm&#xff1f; 在Python…

扫雷游戏小程序

目录 一.文件 1.头文件 2.源文件 二.游戏界面和执行(test.c) 三.函数实现(void game部分,源文件game.c) 1.定义雷二维数组和展示二维数组 2.初始化地雷数组 3.初始化显示的数组 4.显示当前的情况 5.随机放置地雷 6.排雷 ps:深度优先遍历数组 四.结束 一.文件 1.头…

基于图卷积神经网络(GCN)的高光谱图像分类详细教程(含python代码)

目录 一、背景 二、基于卷积神经网络的代码实现 1、安装依赖库 2、建立图卷积神经网络 3、建立数据的边 4、训练模型 5、可视化 三、项目代码 一、背景 图卷积神经网络&#xff08;Graph Convolutional Networks, GCNs&#xff09;在高光谱图像分类中是一种有效的方法…

Unity + Hybridclr + Addressable + 微信小程序 热更新报错

报错时机&#xff1a; Generate All 怎么All 死活就是报错 生成微信小程序&#xff0c;并启动后 报错内容&#xff1a; MissingMethodException:AoT generic method notinstantiated in aot.assembly:Unity.ResourceManager:dll, 原因&#xff1a; Hybridclr 开发文档 解…

【人工智能】深度剖析:Midjourney与Stable Diffusion的全面对比

文章目录 &#x1f34a;1 如何选择合适的AI绘画工具1.1 个人需求选择1.2 比较工具特点1.3 社区和资源 &#x1f34a;2 Midjourney VS Stable Diffusion&#xff1a;深度对比与剖析 2.1 使用费用对比 2.2 使用便捷性与系统兼容性对比 2.3 开源与闭源对比 2.4 图片质量对比 2.5 上…

MATLAB基础应用精讲-【数模应用】Poisson 回归分析(附R语言代码实现)

目录 前言 知识储备 基于泊松回归、负二项回归模型 数据分布介绍 模型介绍 模型的选择 案例介绍 算法原理 泊松回归 数学模型 适用条件 参数估计与假设检验 SPSSAU Poisson 回归案例 1、背景 2、理论 3、操作 4、SPSSAU输出结果 5、文字分析 6、剖析 疑难解…

【探索Linux】P.42(传输层 —— TCP面向字节流 | TCP粘包问题 | TCP异常情况 )

阅读导航 引言一、TCP面向字节流二、TCP粘包问题1. 粘包原因2. 粘包类型3. 粘包的影响4. 解决粘包的方法5. 对于UDP协议来说, 是否也存在 "粘包问题" 呢? 三、TCP异常情况温馨提示 引言 继上篇深入剖析TCP协议的拥塞控制、延迟应答和捎带应答之后&#xff0c;本文将…