NLP自然语言处理学习过程中知识点总结

news2024/9/19 8:19:33

OOV是什么

OOV 是 “Out Of Vocabulary”的缩写,意思是 “超出词汇表” 或 “未登录词汇”。

在自然语言处理 (NLP) 中,OOV 指的是模型训练时没有见过的词语或词汇。通常,语言模型会为其训练数据中未出现的词汇分配一个特殊的标记。OOV 词汇的处理对模型的性能和理解能力影响很大,因为模型无法直接从这些词汇中获取信息。

subword是什么

“Subword” 是自然语言处理(NLP)中的一个概念,特别是在文本预处理和词向量生成过程中使用。它指的是将词语分解成更小的单元(即“子词”),这些子词可以是字符、字符组合或更小的词根、前缀、后缀等。这种方法在处理低频词或未登录词(即模型在训练过程中未见过的词)时特别有效。

Subword的应用场景

  1. 词汇表大小控制:通过将词分解为子词,可以显著减少词汇表的大小,从而降低模型的复杂性和计算成本。

  2. 处理未登录词(OOV):当模型遇到一个未在训练集中出现的词时,模型可以通过其子词来理解其含义。

  3. 处理拼写错误和词形变化:Subword 分割可以帮助模型更好地处理拼写错误或词形变化带来的词语差异。

常见的Subword方法

  1. 字节对编码(Byte-Pair Encoding, BPE):通过合并频率最高的字符对来生成子词单元,逐步构建子词词汇表。

  2. SentencePiece:一种基于BPE或Unigram语言模型的工具,用于生成Subword单元。

  3. Unigram语言模型:一种概率模型,通过最大化训练语料的似然度来生成最优的子词集合。

这些方法在机器翻译、文本生成等任务中广泛应用,提高了模型的泛化能力和处理罕见词的能力。

embedding matrix 是什么

Embedding Matrix 是自然语言处理(NLP)中一种将词汇映射到向量空间的方式

它是将词汇转换为固定长度的连续向量(即嵌入)的矩阵表示。

主要功能:

  1. 词汇到向量的映射:Embedding Matrix 将每个词汇映射到一个固定维度的向量。这些向量通常是在一个高维空间中分布的点,能够捕捉到词汇之间的语义关系。

  2. 捕捉语义关系:在向量空间中,语义相似的词汇通常会靠得更近。比如,“king” 和 “queen” 的嵌入向量之间的距离可能会比 “king” 和 “car” 之间的距离更短。这些语义关系是通过在大规模语料库上训练模型来捕捉的。

  3. 降维表示:相对于使用 one-hot 编码(其中每个词汇都表示为一个维度),嵌入矩阵大大减少了表示的维度,从而降低了计算复杂度,并且避免了维度灾难。

具体过程:

  • 词汇表中的每个词汇都会分配一个唯一的索引。
  • 这些索引对应到嵌入矩阵的行。
  • 嵌入矩阵的每一行都是一个对应词汇的嵌入向量。

例如,假设有一个包含 10,000 个词汇的词汇表,而我们希望将每个词汇表示为一个 300 维的向量,那么嵌入矩阵的尺寸就是 10,000 x 300。

RNN名词解释

RNN 是 Recurrent Neural Network 的缩写,中文通常称为 “循环神经网络”。

RNN 是一种用于处理序列数据的神经网络架构,广泛应用于自然语言处理、语音识别、时间序列预测等领域。

主要特点:

  1. 处理序列数据:RNN 能够处理序列数据(如文本、时间序列等),因为它在计算时会考虑当前输入和之前时刻的信息。

  2. 记忆功能:RNN 通过隐藏状态(hidden state)保留之前时刻的信息,并将其传递给后续时刻的计算中,这使得 RNN 能够捕捉序列中的时间依赖性。

  3. 参数共享:在 RNN 中,同一个网络层的参数在不同的时间步(时间点)共享。这意味着无论序列有多长,RNN 的参数数量都是固定的,这使得 RNN 能够处理不同长度的输入序列。

基本工作原理:

RNN 的基本单元由一个隐藏状态(h_t)组成。对于每个时间步,RNN 接收当前输入(x_t)和前一时间步的隐藏状态(h_{t-1}),然后通过一个非线性函数(通常是 tanh 或 ReLU)来计算当前时间步的隐藏状态(h_t)。这个隐藏状态既包含了当前输入的信息,又包含了之前所有时间步的信息。

公式表示:

  • 当前时间步的隐藏状态:h_t = f(W_hh * h_{t-1} + W_xh * x_t + b_h)
  • 当前时间步的输出:y_t = W_hy * h_t + b_y

其中,W_hhW_xhW_hy 是权重矩阵,b_hb_y 是偏置项,f 是非线性激活函数。

局限性:

  1. 长期依赖问题:标准的 RNN 在处理长序列时,容易出现梯度消失或梯度爆炸的问题,导致难以捕捉长时间依赖的关系。

  2. 训练困难:由于上述的梯度问题,RNN 在训练长序列数据时通常较为困难。

LSTM是什么

LSTM(Long Short-Term Memory,长短期记忆网络)是一种特殊的循环神经网络(RNN)架构,设计用来解决标准RNN中常见的长期依赖问题。

LSTM 通过引入“记忆单元”来保留长期信息,避免了梯度消失或爆炸的问题,使得模型在处理长序列数据时表现更好。

主要特点:

  1. 记忆单元(Memory Cell):LSTM 的核心是它的记忆单元,这个单元可以通过控制门(gates)来决定哪些信息保留,哪些信息遗忘。

  2. 门控机制(Gating Mechanism):LSTM 包含三个主要的门:遗忘门、输入门和输出门,它们通过学习如何调节信息流动,使得网络能够更好地处理长时间的依赖关系。

    • 遗忘门(Forget Gate):控制记忆单元中哪些信息需要被遗忘或保留。
    • 输入门(Input Gate):决定哪些新信息将被加入到记忆单元中。
    • 输出门(Output Gate):决定记忆单元的哪些部分将影响到当前的输出。
  3. 长时间依赖:由于上述门控机制的存在,LSTM 能够有效地捕捉和保留长时间依赖的信息,比传统的 RNN 更加适合处理长序列数据。

LSTM的工作机制:

LSTM 在每个时间步都会更新记忆单元的状态,并通过以下几个步骤来决定如何处理信息:

  1. 遗忘门:决定当前记忆单元状态中哪些部分需要遗忘。

    ft=σ(Wf⋅[ht−1,xt]+bf)f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f)ft​=σ(Wf​⋅[ht−1​,xt​]+bf​)

    其中,σ 是 sigmoid 激活函数,W_fb_f 是遗忘门的权重和偏置。

  2. 输入门:决定将哪些新信息添加到记忆单元中。

    it=σ(Wi⋅[ht−1,xt]+bi)i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i)it​=σ(Wi​⋅[ht−1​,xt​]+bi​)

    然后计算候选记忆内容:

    C~t=tanh⁡(WC⋅[ht−1,xt]+bC)\tilde{C}_t = \tanh(W_C \cdot [h_{t-1}, x_t] + b_C)C~t​=tanh(WC​⋅[ht−1​,xt​]+bC​)
  3. 更新记忆单元状态:将遗忘的部分和新加入的信息结合起来,更新记忆单元状态。

    Ct=ft∗Ct−1+it∗C~tC_t = f_t * C_{t-1} + i_t * \tilde{C}_tCt​=ft​∗Ct−1​+it​∗C~t​
  4. 输出门:决定当前时间步的隐藏状态和输出。

    ot=σ(Wo⋅[ht−1,xt]+bo)o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o)ot​=σ(Wo​⋅[ht−1​,xt​]+bo​)

    最后,计算新的隐藏状态:

    ht=ot∗tanh⁡(Ct)h_t = o_t * \tanh(C_t)ht​=ot​∗tanh(Ct​)

应用场景:

LSTM 在许多需要处理长序列数据的应用中表现出色,比如:

  • 机器翻译
  • 语音识别
  • 时间序列预测
  • 文本生成

LSTM 是 RNN 的重要改进,尤其在处理长时间依赖关系的任务中,具有显著优势。

GRU是什么

GRU(Gated Recurrent Unit,门控循环单元)是一种改进的循环神经网络(RNN)结构,它与 LSTM 类似,但结构更简单,计算效率更高。

GRU 通过引入门控机制来控制信息的流动,从而缓解了传统 RNN 在处理长序列时的梯度消失问题。

主要特点:

  1. 简化的门控机制:GRU 只有两个门:更新门(Update Gate)和重置门(Reset Gate),相比 LSTM 的三个门(遗忘门、输入门、输出门),结构更加简洁。

    • 更新门(Update Gate):控制隐藏状态中有多少信息需要从前一时刻传递到当前时刻,也控制当前时刻新信息的更新程度。
    • 重置门(Reset Gate):决定前一时刻的信息在计算新信息时应该被遗忘多少。
  2. 无单独的记忆单元:GRU 将隐藏状态和记忆单元合二为一,减少了计算复杂度。

  3. 更高的计算效率:由于 GRU 的结构比 LSTM 简单,计算速度更快,且在一些任务中能够达到与 LSTM 相当的性能。

IR问题是什么

IR(Information Retrieval,信息检索)是计算机科学中的一个领域,主要研究如何从大量的非结构化数据中找到与用户查询相关的信息。

信息检索的目标是高效、准确地提供用户所需的信息,这一领域在搜索引擎、文档管理系统、推荐系统等应用中非常重要。

主要问题:

  1. 查询表达问题

    • 用户查询往往短小、模糊且不准确,如何将用户的需求有效地表达并转化为计算机可以处理的查询是一个挑战。
    • 解决方法包括:查询扩展、查询建议、自然语言处理等。
  2. 匹配问题

    • 如何衡量用户查询和文档内容之间的相关性?这涉及到匹配算法和模型的设计。
    • 常用方法:布尔模型、向量空间模型、概率模型,以及近年来流行的基于深度学习的匹配模型。
  3. 排序问题

    • 当找到多个相关文档时,如何根据其相关性进行排序,以便用户优先看到最相关的结果?
    • 排序算法:TF-IDF、PageRank、BM25,及基于机器学习的排序模型(如学习排序)。
  4. 多样性问题

    • 排序后的结果列表中,如何确保信息的多样性,以避免信息冗余并覆盖不同用户需求?
    • 解决方法:结果聚类、多样性优化等。
  5. 效率问题

    • 在处理海量数据时,如何保证检索的速度和系统的响应时间?
    • 解决方法:索引技术(如倒排索引)、并行处理、大规模数据处理框架(如Hadoop、Spark)。
  6. 用户行为分析

    • 如何利用用户的行为数据(如点击率、浏览时间、跳出率)来优化检索系统的性能?
    • 解决方法:用户反馈、A/B测试、行为建模。
  7. 信息过载与过滤

    • 随着互联网信息的爆炸性增长,如何过滤掉噪音信息,提供高质量、精准的信息?
    • 解决方法:个性化推荐、内容过滤、智能代理。
  8. 评价标准

    • 如何衡量一个信息检索系统的好坏?评价标准是信息检索研究中的重要问题。
    • 常见评价指标:准确率(Precision)、召回率(Recall)、F1分数、平均准确率(MAP)、归一化折损累计增益(NDCG)等。

MAP是什么

MAP(Mean Average Precision,平均平均准确率)是信息检索领域常用的评价指标,用于衡量一个检索系统在给定查询集上的整体性能。MAP 是在多个查询的基础上,对每个查询的平均准确率(AP, Average Precision)进行平均得出的结果。

详细解释:

  1. 准确率(Precision)

    • 定义:在检索出的结果中,相关结果占比是多少。
  2. 平均准确率(AP, Average Precision)

    • 定义:针对单个查询,计算检索结果中的相关文档在不同截断点上的平均准确率。
    • 计算方式:对于每一个查询,在所有相关文档的位置上计算准确率,然后取这些准确率的平均值。
  3. 平均平均准确率(MAP, Mean Average Precision)

    • 定义:MAP 是对多个查询的平均准确率进行平均,衡量一个检索系统在整个查询集上的表现。

应用场景:

MAP 常用于评估搜索引擎、推荐系统和问答系统的性能,特别是当检索任务涉及多个查询时,MAP 能够为系统提供一个整体性能的评估。MAP 的一个优势在于它既考虑了检索结果的排序,也考虑了相关文档在结果列表中的分布。

NDCG是什么

NDCG(Normalized Discounted Cumulative Gain,归一化折损累计增益)是信息检索领域常用的评价指标,用于评估搜索引擎或推荐系统在排序任务中的性能。NDCG 结合了结果的相关性和排名位置,通过对排名的折损处理来衡量排序结果的质量。NDCG 的值在 0 到 1 之间,1 表示最优排序。

主要概念:

  1. 累计增益(Cumulative Gain, CG)

    CG 是对检索结果中所有相关文档的相关性得分进行累加的总和。
  2. 折损累计增益(Discounted Cumulative Gain, DCG)

    DCG 在计算 CG 的基础上,对文档的排名位置进行折损处理,排名越靠后,折损越大。
  3. 理想折损累计增益(Ideal DCG, IDCG)

    • IDCG 是理想情况下的 DCG,即相关性最高的文档在最前面的排序结果对应的 DCG。
    • 公式与 DCG 相同,但相关性得分是按最优顺序排列的。
  4. 归一化折损累计增益(NDCG)

    NDCG 是通过将实际的 DCG 与理想情况下的 IDCG 进行比值计算,从而归一化得到的值,用于衡量实际结果与最优排序的接近程度。

roc是什么

ROC(Receiver Operating Characteristic,受试者工作特征曲线)是一种用于评估分类模型性能的图形工具,特别在二元分类问题中常用。ROC 曲线通过展示不同阈值下分类模型的真正率(True Positive Rate, TPR)与假正率(False Positive Rate, FPR)之间的权衡,帮助我们理解模型的整体性能。

TF-idf是什么

TF-IDF(Term Frequency-Inverse Document Frequency,词频-逆文档频率)是一种用于文本挖掘和信息检索的统计方法,主要用于评估一个词语在文档集合中的重要性。TF-IDF 结合了词频和逆文档频率两个指标,能够平衡一个词语在单个文档和整个文档集合中的出现情况,使得常见但无关紧要的词语权重降低,而重要的、具有区分度的词语权重提高。

逆文本频率(IDF,Inverse Document Frequency),又称为反文档频率,是文档频率的倒数,主要用于TF-IDF(Term Frequency-Inverse Document Frequency)算法中。这一概念最初是一种用于资讯检索与资讯探勘的常用加权技术。

IDF的主要作用是衡量一个词语在文档集合中的普遍性。具体来说,如果一个词语在很多文档中都出现,那么它的IDF值就会很低,表示这个词语对于区分文档的重要性不高;反之,如果一个词语在较少的文档中出现,那么它的IDF值就会很高,表示这个词语对于区分文档的重要性较高。

IDF的计算公式一般为IDF(t,D)=log(N/n),

其中N是文档集合中的文档总数,

n是包含词语t的文档数。

这个公式表明,词语t的IDF值与其在文档集合中出现的文档数n成反比,与文档总数N成正比。通过对数运算,可以进一步放大这种反比关系,使得IDF值更加显著地反映出词语的普遍性。

需要注意的是,IDF值的计算可能会受到一些因素的影响,比如文档集合的大小、文档内容的多样性等。此外,不同的IDF计算公式可能会产生不同的结果,但基本原理是相同的。

总的来说,逆文本频率(IDF)是TF-IDF算法中的重要组成部分,它通过与词频(TF)相乘来评估一个词语在文档集合中的重要程度。这种评估方法在信息检索、文本挖掘、自然语言处理等领域都有广泛的应用。

词袋模型是什么

词袋模型(Bag of Words,BoW)是一种简单而常用的文本表示方法,主要用于自然语言处理(NLP)和信息检索领域。在词袋模型中,一个文本被表示为词汇的无序集合,完全忽略了词语的语序、语法以及词间关系,只关注词语的出现频率。

词袋模型的主要特点:

  1. 无序性

    • 词袋模型只关心词语是否出现,以及出现的频率,而不关心词语在文本中的位置。因此,模型忽略了文本的语法结构和词序。
    • 例如,"猫喜欢鱼" 和 "鱼喜欢猫" 在词袋模型中是等价的。
  2. 词频表示

    • 每个文本被表示为一个向量,向量的每个元素对应于一个词汇表中的词语,值为该词语在该文本中的出现次数(或出现次数的变种,如TF-IDF)。
    • 例如,在一个包含词汇表 "猫","喜欢","鱼""猫", "喜欢", "鱼""猫","喜欢","鱼" 的模型中,文本 "猫喜欢鱼" 被表示为向量 1,1,11, 1, 11,1,1,而 "猫喜欢喜欢鱼" 则被表示为 1,2,11, 2, 11,2,1。
  3. 词汇表构建

    • 词汇表是由所有训练文本中的唯一词语组成的。词汇表中的词语通常经过一些预处理步骤,如去除停用词、词干提取、词形还原等。
    • 对于较大的文本数据集,词汇表可能会非常大,因此通常会进行降维处理,如限制词汇表的大小或使用词嵌入。

词袋模型的应用:

  1. 文本分类

    • 在文本分类任务中,词袋模型常用作特征提取方法,将文本转换为向量,然后将这些向量输入分类器(如朴素贝叶斯、支持向量机、神经网络)中进行分类。
    • 例如,垃圾邮件分类就是通过分析邮件中的词语频率来判断邮件是否为垃圾邮件。
  2. 信息检索

    • 词袋模型用于信息检索系统中,将文档和查询都表示为词频向量,通过计算相似度(如余弦相似度)来检索相关文档。
    • 例如,搜索引擎会根据用户输入的查询词,找到与之相关的网页。
  3. 文本聚类

    • 在文本聚类任务中,词袋模型可以将文档表示为向量,然后使用聚类算法(如K-means)将相似的文档分组。

词袋模型的优缺点:

优点

  • 简单易用:实现简单,适合快速原型开发。
  • 可扩展性强:可以处理非常大的文本数据集。

缺点

  • 忽略了词序和上下文信息:不能捕捉词语之间的关系和语法结构。
  • 维度高:随着词汇表的增大,向量的维度也会变得很高,导致计算复杂度增加。
  • 信息丢失:忽略了同义词和多义词,可能导致信息的丢失。

示例:

假设我们有以下三个句子:

  1. "我 喜欢 学习"
  2. "学习 是 有趣 的"
  3. "我 喜欢 有趣 的 事情"

构建词汇表:"我","喜欢","学习","是","有趣","的","事情""我", "喜欢", "学习", "是", "有趣", "的", "事情""我","喜欢","学习","是","有趣","的","事情"

将句子转换为词袋模型的向量表示:

  • "我 喜欢 学习" -> 1,1,1,0,0,0,01, 1, 1, 0, 0, 0, 01,1,1,0,0,0,0
  • "学习 是 有趣 的" -> 0,0,1,1,1,1,00, 0, 1, 1, 1, 1, 00,0,1,1,1,1,0
  • "我 喜欢 有趣 的 事情" -> 1,1,0,0,1,1,11, 1, 0, 0, 1, 1, 11,1,0,0,1,1,1

通过这些向量,我们可以对句子进行各种操作,例如计算它们之间的相似性、进行分类等。

持续更新中~~~~~~~~~~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2114712.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【国赛急救包】数模国赛查重规则及降重技巧

国赛已经快接近尾声了,各位宝宝论文写得怎么样啦~ 今天为大家分享关于国赛查重的一些规则,以及降重技巧!快收藏起来吧~ 1. 国赛查重要求及如何查重 • 数学建模国赛的查重除了知网数据库以外,更重要的是自建库的查重比对&#x…

14.1 为什么说k8s中监控更复杂了

本节重点介绍 : k8s中监控变得复杂了,挑战如下 挑战1: 监控的目标种类多挑战2: 监控的目标数量多挑战3: 对象的变更和扩缩特别频繁挑战4: 监控对象访问权限问题 k8s架构图 k8s中监控变得复杂了,挑战如下 挑战1: 监控的目标种类多 对象举例 podnodese…

【kubernetes】配置管理中心Configmap运用

一,介绍 Configmap(简写 cm)是k8s中的资源对象,用于保存非机密性的配置的,数据可以用key/value键值对的形式保存,也可通过文件的形式保存。 【局限性】:在ConfigMap不是用来保存大量数据的&am…

Windows下Python和PyCharm的应用(二)__快捷键方式的设定

前言 程序写久了,难免会形成自己的编程习惯。比如对某一套快捷键的使用,已经形成了肌肉记忆。 为了方便快捷键的使用,可以在PyCharm中设置自己喜欢的快捷键。 我比较习惯于微软Visual Studio的快捷键设置。(因为早些年VC开发用的…

模具要不要建设3D打印中心

随着3D打印技术的日益成熟与广泛应用,模具企业迎来了自建3D打印中心的热潮。这一举措不仅为企业带来了前所未有的发展机遇,同时也伴随着一系列需要克服的挑战,如何看待企业引进增材制造,小编为您全面分析。 机遇篇: 加…

win11如何录屏

在 Win11 中录屏可以使用系统自带的工具和一些第三方应用。以下是几种方法: 方法一:使用 Xbox Game Bar 1. 打开 Xbox Game Bar - 按 Win G 组合键打开 Xbox Game Bar。 2. 开始录制 - 在显示的界面中,点击“录制”按钮(…

Linux之nginx部署项目【前后端分离】(外加redis安装)

nginx安装和访问 1.使用apt安装Nginx apt install -y nginx 用whereis nginx找到和nginx相关目录 nginx目录结构 /usr/sbin/nginx 服务文件 /etc/nginx 配置目录 /usr/share/nginx/html 发部项目 服务名: nginx.service ps -ef | grep nginx apt install -y net-tools …

【Excel 表打印基本操作】

表格打印 1.设置缩放打印1.1 命令启动器、命令组1.2 一页纸打印1.3 自由设置打印缩放比例 2.跨页打印标题3.打印选定区域3.1 打印前/后n行3.2 打印多个表格区域3.3 只打印图表3.4 不打印照片 4.设置分页打印4.1 手动分页:分页预览,分页符a) 手动插入分页…

x86的Docker环境下载ARM版容器镜像

文章目录 应用场景下载方法 应用场景 内网是信创ARM环境,需要从外网下载镜像,但外网的docker环境是X86环境,此时需要在外网docker环境下载ARM版容器镜像。 下载方法 # 如何找sha256参见下面的截图。 # hub.docker网站找到镜像后&#xff0…

插件maven-search:Maven导入依赖时,使用插件maven-search拷贝需要的依赖的GAV

然后粘贴&#xff1a; <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <version>8.0.26</version> </dependency>

0基础学习爬虫系列:程序打包部署

1.目标 将已经写好的python代码&#xff0c;打包独立部署或运营。 2. 环境准备 1&#xff09;通义千问 &#xff1a;https://tongyi.aliyun.com/qianwen 2&#xff09;0基础学习爬虫系列–网页内容爬取&#xff1a;https://blog.csdn.net/qq_36918149/article/details/14199…

【Python篇】PyQt5 超详细教程——由入门到精通(终篇)

文章目录 PyQt5超详细教程前言第9部分&#xff1a;菜单栏、工具栏与状态栏9.1 什么是菜单栏、工具栏和状态栏9.2 创建一个简单的菜单栏示例 1&#xff1a;创建带有菜单栏的应用程序代码详解&#xff1a; 9.3 创建工具栏示例 2&#xff1a;创建带有工具栏的应用程序代码详解&…

如何在mac上玩使命召唤手游?苹果电脑好玩的第一人称射击游戏推荐

《使命召唤4&#xff1a;现代战争》&#xff08;Call of Duty 4: Modern Warfare&#xff09;是由Infinity Ward开发并于2007年发行的第一人称射击游戏。该游戏是《使命召唤》系列的第四部作品&#xff0c;是一款非常受欢迎的游戏之一&#xff0c;《使命召唤4&#xff1a;现代战…

QT串口读取Serial->readAll()踩过的坑

QT串口读取Serial->readAll接收不完全踩过的坑 Chapter1 QT串口读取Serial->readAll()踩过的坑坑一&#xff1a;坑二 Chapter2 [QT串口上位机BUG解决]json解析数据bug以及接收数据问题问题描述原因分析&#xff1a;解决方案&#xff1a;一、是数据采集端&#xff08;单片…

灰光模块,彩光模块-介绍

1. 引用 知识分享系列一&#xff1a;5G基础知识-CSDN博客 5G前传的最新进展-CSDN博客 灰光和彩光_通信行业5G招标系列点评之二&#xff1a;一文读懂5G前传-光纤、灰光、彩光、CWDM、LWDM、MWDM...-CSDN博客 ADOP带你了解&#xff1a;CWDM、DWDM、MWDM、LWDM&#xff1a;快速…

久久公益节||“携手万顺叫车一起做公益”

99公益日是由腾讯公益联合多家公益组织、企业及社会各界爱心人士共同举办的年度大型公益活动。随着99公益日的到来&#xff0c;同悦社工诚挚地邀请了万顺叫车一起参与今年的公益活动&#xff0c;共同为社会公益事业贡献力量。 在本次公益倡导活动中&#xff0c;万顺叫车将发挥其…

vLLM (5) - LLMEngine下篇

系列文章目录 vLLM (1) - Qwen2推理&部署 vLLM (2) - 架构总览 vLLM (3) - Sequence & SequenceGroup vLLM (4) - LLMEngine上篇 vLLM (5) - LLMEngine下篇 文章目录 系列文章目录前言一、类图二、LLM._validate_and_add_requests()1.LLM2.LLMEngine3.Scheduler 三、L…

颠覆你的开发模式:敏捷思维带来的无限可能

敏捷软件开发作为现代软件工程的重要方法论&#xff0c;强调快速响应变化和持续交付价值。通过灵活的开发模式和高效的团队协作&#xff0c;敏捷方法在应对动态变化和不确定性方面表现出色。本文将结合学习和分析&#xff0c;探讨系统变化对敏捷开发的影响、业务与技术的对齐以…

axure之变量

一、设置我们的第一个变量 1、点击axure上方设置一个全局变量a 3 2、加入按钮、文本框元件点击按钮文档框展示变量值。 交互选择【单击时】【设置文本】再点击函数。 点击插入变量和函数直接选择刚刚定义的全局变量&#xff0c;也可以直接手动写入函数(注意写入格式。) 这…

sheng的学习笔记-AI-概率图,隐马尔可夫HMM,马尔可夫随机场MRF,条件随机场CRF

ai目录&#xff1a;sheng的学习笔记-AI目录-CSDN博客 贝叶斯分类&#xff1a; https://blog.csdn.net/coldstarry/article/details/138861587 基础知识 概率图模型 概率图模型(probabilistic graphical model)是一类用图来表达变量相关关系的概率模型。 它以图为表示工具&…