信我!这里有普通人也能理解的 Transformer

news2024/11/25 10:10:07

引言

如今爆火的大模型,GPT-3,BERT 等,通过大量的参数和数据,为我们提供了前所未有的自然语言处理能力,使得机器能够更好地理解和生成人类的语言。而注意力机制无疑是重要的基石之一,作为一种新的神经网络结构,使得模型能够更好地捕捉序列中的长距离依赖关系,从而大大提高了模型的性能。

本文将从通俗和学术两个角度,详细介绍大模型和注意力机制的基础知识。无论你是对人工智能感兴趣的初学者,还是寻求深入理解的开发者,都能在本文中找到你需要的内容。我们将从 RNN 开始,介绍其原理和局限性,然后介绍 LSTM 如何解决这些问题,接着我们将深入探讨注意力机制的历史、原理和类型,最后我们将介绍 Transformer 模型,以及它相较于 LSTM 的优势。希望通过本文,能让你对注意力机制有更深入的理解。

NLP 和 LLM 是怎样的关系?

现如今,人人嘴边挂着的大模型,其实更准确的名称是:大语言模型(Large Language Model,缩写LLM),刚接触 LLM,会时常伴随着另一个名词 NLP 自然语言处理(Natural Language Processing),那这两者到底是怎样的关系呢?

简单理解 NLP是人工智能的一个分支,同时也是一个广泛的领域,它研究如何让计算机理解、生成和处理自然语言,支持用户使用自然语言文本或语音来询问数据。

我们使用的手机语音助手,如 Siri,小爱等,我们日常使用的一些功能包括 Web 搜索、垃圾邮件过滤、自动文本或语音翻译等都采用了 NLP 技术。

而 LLM 是这个领域中的一个重要工具。通过训练和使用语言模型,我们可以解决 NLP 中的各种任务,从而让计算机更好地理解和处理自然语言。

模型初代目:RNN

说到语言,第一个让人想到的一定是的不同语言之间的翻译问题,而语言模型首要解决的问题,一般也会是翻译,毕竟相较于让机器能具有情感的与人交流,翻译问题更像是考试,成果的好坏也能更直观的展现。以下的实例我们都以翻译问题来看

RNN(Recurrent Neural Network)循环神经网络,NLP里最常用、最传统的深度学习模型,在自然语言处理、语音识别等有很广泛的用途。

经典的 RNN 结构

image.png

x 是输入,y 是输出,h 是隐藏层,若是对应到一句话的翻译就是:

image.png

可以看出整个结构中最重要的就是隐藏层 h,作为普通小白,我们可以把整个结构看作是一次接力看剧的游戏,游戏规则是:一群人看一部电视剧,每个人只能看其中的一集,并总结出这集讲了什么,最后所有人的总结拼凑起来就是这部剧的大概脉络。

其中 h 层是一个个的人,很明显这部剧有四集,x1 代表这个剧的第一集,名叫 h1 的人看了第一集后,总结出了第一集的内容 y1,以此类推,四个人看完自己的剧集都总结出了各自内容,分别是 y1,y2,y3 和 y4。

但在很多剧中都会有个前情提要的环节,因为很多时候第一集会把出场人物介绍完,后续的剧集就不会进行介绍了,或是前一集发生事情的结果是后一集的起因,这样只看了后一集的人肯定会云里雾里,不知道这集讲了什么。所以 h1 不仅要总结出自己负责的第一集内容,还要把第一集的内容全部复述给 h2,方便他理解第二集的内容,h2 需要把第一集和第二集的内容全部复述给 h3,以此类推。

image.png

这其实就是 隐状态h 的作用,保存数据用于输出,和传递模型在处理序列数据时的历史信息。意味着每个 y 前的输出不仅依赖于当前 x 的输入,还依赖于之前 x 的输入。

Encoder-Decoder 模型

RNN 作为NLP中最常用、最传统的深度学习模型,不仅仅适用于翻译问题,还可以应用于解决更多复杂的场景。通过对RNN 结构的简单变化,我们可以灵活地适应不同的任务需求。

N 对 1

主要用于判断输入的类型或是总结性工作

v2-6caa75392fe47801e605d5e8f2d3a100_1440w.webp

1 对 N

1 对 N 这种结构一般有两种:

第一种主要用于输入一段文字进行演进或扩写,或是输入图像或音乐进行优化等场景

v2-87ebd6a82e32e81657682ffa0ba084ee_1440w.webp

第二种主要用于输入一段文字进行拆解,或是输入图像或音乐进行信息提取等场景

v2-16e626b6e99fb1d23c8a54536f7d28dc_1440w.webp

Encoder-Decoder 模型(N 对 M)

然而在实际解决问题的过程中,大部分问题输入和输出都不是等长的,无论是最开始的 N 对 N,还是变种的 1 对 N 和 N 对 1 都只是解决特殊问题的结构。

而后演变出的最灵活,也是使用频率最高的一种 RNN 变种,解决了这个难题,这种结构一般也被称为 Encoder-Decoder 模型或是 Seq2Seq(sequence to sequence) 模型。

从图中可看出,其实就是将 N 对 1 与 1 对 N 两种结构的 RNN 相结合,分别控制各自 N 的数量来达到 N 对 M 的效果,同理,N 对 M 同样也有两种:

image.png

前部分 RNN 只负责接收输入信息,可以理解为在为信息编码,被称为 Encoder,将 encode 后的结果赋值给 c,再将 c 作为后部分的输入,后部分 RNN 就只进行对输入信息进行解码,称为 Decoder。这种模型不限制输入输出的长度,因此应用最为广泛。

这里有一点需要注意:虽然我们是用 RNN 来引出的 Encoder-Decoder 模型,但 Encoder-Decoder 模型并不等同或属于 RNN 模型的一类,因为只要符合编码-解码的结构都可以被称为 Encoder-Decoder 模型,即使 Encoder 和 Decoder 不是通过 RNN 模型来实现的,所以说 RNN 模型和 Encoder-Decoder 模型没有从属关系。

RNN 的缺点

如果把 RNN 还是看作一次接力看剧的游戏,但这次这个剧集很长,可能是上万,十万,甚至是百万集,那么随着中间人的口口相传,慢慢的,最开始的一些剧集的内容在传递的过程慢慢被遗忘。这就是 RNN 的一个主要问题,它在处理长序列时,往往会忘记序列开始部分的信息。这就像是这个人的记忆有限,不能记住所有的情节。这种问题在 RNN 中被称为“长期依赖问题”。

用专业的语言来说,就是 RNN 在处理长序列时,往往难以捕捉到序列中的长期依赖关系。这是因为在 RNN 的训练过程中,会出现梯度消失或梯度爆炸的问题。当序列很长时,这个问题会变得更加严重。梯度消失会导致 RNN 难以学习到序列中早期的信息,而梯度爆炸则会导致训练过程不稳定。这两个问题都会限制 RNN 处理长序列的能力。

有关梯度爆炸和梯度消失的问题,网上有大量的从公式推导的文章,有兴趣的同学可以搜索看看,这里就不做详细解释了,只要记住 RNN 也是比较“健忘”的,不擅长处理长篇幅的事情。

进阶版:LSTM

正如我们所看到的,RNN 在处理长序列时存在一些困难,尤其是在捕捉长期依赖关系方面。这是因为在训练过程中,RNN容易遇到梯度消失或梯度爆炸的问题。那么,有没有一种方法可以解决这些问题,使得我们的模型能够更好地处理长序列呢?

答案是肯定的。这就是我们接下来要介绍的模型:长短期记忆网络(Long Short-Term Memory,简称LSTM)。LSTM 是 RNN 的一种变体,它通过引入一种特殊的结构 - “门”,来控制信息的流动,从而有效地解决了 RNN 的长期依赖问题。

老规矩,依然看作是一次接力看剧的游戏,但换了一批接力的人玩,这批人更聪明,他们在传递剧集信息时不再复述每一集的全部内容了,他们有了总结信息的能力,会选择传递剧情的关键有用的信息,忽略无用的信息,这样在传递过程中每个人要记忆的信息大大减少了,但关键信息都保留了下来,对最后剧情的复现影响不大。

image.png

LSTM 中的特殊结构 - “门”就相当于总结信息的能力。每个 LSTM 单元都有自己的输入门、遗忘门和输出门,这些门的状态是由输入数据和单元的当前状态决定的。这意味着,对于同一输入,不同的 LSTM 单元可能会有不同的门状态,因此它们可能会选择记住或忘记不同的信息。这种设计使得LSTM能够在处理复杂和长序列的数据时,更好地捕捉到数据中的长期依赖关系。

具体的 LSTM 图如下:

image.png

这是单个 LSTM 单元内部结构图,其中三个门分别是:

  • 输入门 𝑖:想象你正在看一部电影,你的大脑会自动筛选哪些信息是重要的,哪些可以忽略。输入门就像是这个筛选过程,它决定了哪些新信息需要被存储到记忆中。
  • 遗忘门 𝑓:随着时间的推移,你可能会忘记一些不重要的信息,而保留重要的信息。遗忘门就像是这个遗忘过程,它决定了哪些旧信息需要从记忆中删除。
  • 输出门 𝑜:当你需要回忆某个场景时,你的大脑会从记忆中提取相关信息。输出门就像是这个提取过程,它决定了哪些信息需要从记忆中读取出来,以便用于当前的任务。

显然,LSTM在处理长期依赖问题上优于RNN,但随着输入序列的增加,仍然会面临困难。此外,人们发现按顺序逐个处理输入的串行方式在计算效率上并不高。为了实现计算效率的质的飞跃,必须进行串行到并行的转变。

LLM 基石 - 注意力(Attention)机制

在介绍当前最佳解决方案模型之前,我们按下不表,先来看看一个重要的基础知识 - 注意力机制。注意力机制为解决处理长序列时的困难提供了一种有效的解决方案,可以说它是目前整个 LLM 实现的基石之一。

注意力(Attention)机制发展的重要节点

类似于注意力(Attention)机制的架构最早于90年代提出,最早用于视觉领域。因为它最初灵感来源于人类的视觉,即当人用眼睛观察东西的时候,会 首先快速扫描全局图像,然后再捕捉需要重点关注的目标区域,将视 觉重点聚焦在这个目标区域,对重点区域投入更多注意力资源,同时忽略其他信息。

此后,注意力(Attention)机制就在 NLP 领域发光发热,一路狂飙,一定程度上造就了当下讨论热点 LLM。

注意力(Attention)机制是什么

其实通过字面意思也很好理解,注意力(Attention)机制就像是我们在阅读一篇文章时,会关注文章中的重点部分。当我们需要理解某个特定的概念时,我们会把注意力集中在与这个概念相关的部分,而忽略其他不相关的部分。同样,在处理序列数据时,注意力机制可以帮助模型关注与当前任务最相关的部分,从而提高模型的性能。

说白了,解决长序列问题的方案,大家都是在如何筛选有效信息上下功夫,LSTM 门控策略是如此,注意力(Attention)机制亦是如此,那注意力机制是如何做到比 LSTM 门控更好的呢?

小白版

比如你在看一本书时,你的大脑会自动过滤掉不重要的信息,只关注重要的部分。而 LSTM 就像是一个按顺序阅读的人,虽然它也可以记住一些重要的信息,但是如果这些信息距离当前位置很远,那么它可能就会忘记。而注意力(Attention)机制就像是可以随时跳回去查看重要信息的人,所以它可以更好地从全局的视角来关注重点。

大神版

在LSTM中,信息是通过隐藏状态在序列的各个位置之间传递的,这可能导致距离当前位置较远的重要信息在传递过程中被遗忘。而注意力机制通过计算每个位置的权重,可以直接关注到序列中任何位置的信息,无论这个位置距离当前位置有多远。这使得注意力机制能够更好地捕捉到序列中的长期依赖关系,从而更好地关注重点。

注意力机制的原理主要基于对输入序列中每个元素的重要性进行权重分配。在深度学习模型中,这种权重分配通常是通过学习得到的。 efa5b-2019-11-13-3step.png.webp

在注意力机制中,Query、Key 和 Value 是三个核心概念,它们通常都是向量形式的表示。

  • Query :通常来自于需要进行预测的当前位置,比如在机器翻译中,如果我们想要预测目标语言的下一个词,那么这个词的上下文信息就可以作为 Query。

  • Key 和 Value :它们通常来自于输入数据,比如在机器翻译中,源语言的每个词及其上下文信息就可以作为 Key 和 Value。Key 用于和 Query 进行匹配,计算出每个位置的注意力权重;Value 则是根据这些权重进行加权求和的对象,得到的结果就是注意力机制的输出。

具体来说,注意力机制分三个主要阶段:

  1. 首先会计算一个 Query 和每个 Key 的匹配程度,这通常通过计算它们的点积或者其他相似度度量来实现,得到权值 s
  2. 将权值 s 进行归一化为概率分布,这通常通过 softmax 函数来实现,得到权重 a
  3. 模型会根据这个概率分布对 Value 进行加权求和,得到最终的输出 Attention Value

注意力机制的这种设计使得模型能够在处理输入序列时,关注到与当前任务最相关的部分,从而提高模型的性能。

注意力(Attention)机制类型

软注意力(Soft Attention)

软注意力就像是你在看一幅画,你的眼睛可以在整幅画上自由移动,但是你的注意力会更多地集中在你感兴趣的部分,比如画中的人物或者某个特定的细节。

这是比较常见的 Attention 方式,是一种全局的注意力机制。每个 key 都有一个对应的权重,这些权重是连续的并且可以通过梯度下降进行优化。这种机制允许模型在处理输入数据时,参考了所有 key 的内容,再进行加权,比较全面和理性。但是计算量可能会比较大一些。

硬注意力(Hard Attention)

硬注意力就像是你在看一幅画,但是你只能看到画中的一小部分,你需要移动你的视线来看其他部分。

它是一种局部的注意力机制,这种方式是在每个时间步直接精准定位到某个 key,其余 key 就都不管了。这种机制使得模型在处理输入数据时,只能考虑到一个位置的信息,并且这个位置不能通过梯度下降进行优化。

自注意力(Self-Attention)

简单来说,自注意力就是让模型自己去发现输入序列中各个部分之间的相互关系。

想象一下,你正在阅读一段文字,每个单词都是输入序列中的一个位置。自注意力机制会让模型去计算每个单词与其他所有单词之间的关联程度。这样,模型就可以根据这些关联程度来为每个单词生成一个的关系图,这个关系图包含了与其他单词的关系信息。这种方法让模型能够捕捉到序列中的长距离依赖关系,从而更好地理解整个序列的含义。

自注意力是一种特殊的注意力机制。它的主要目的是帮助模型更好地理解序列数据中的各个部分之间的关系。在自注意力中,查询(Query)、键(Key)和值(Value)都来自同一处的输入。对于输入序列中的每一个位置,都会计算它与序列中所有其他位置的相似度,然后用这些相似度作为权重,对输入序列进行加权求和,得到该位置的新表示。这种机制允许模型在处理序列数据时,考虑到每个位置与其他所有位置之间的关系,从而捕捉到长距离的依赖关系。

自注意力机制是 Transformer 模型中的重要组成部分,它摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)结构,完全依赖自注意力来处理序列数据。

Transformer

Transformer 是一种基于自注意力机制的深度学习模型,专门用于处理序列数据。在 NLP 领域,Transformer 取得了巨大的成功,并成为当前热门的 LLM 如 GPT 和 BERT 的核心组件。

并且 Transformer 解决了前面提到的串型结构效率低下,长期依赖的问题,同时因为完全采用了自注意力机制,使得我们可以直观地看到模型在处理序列数据时,对每个位置的关注程度。这可以帮助我们理解模型的决策过程,比如在机器翻译任务中,我们可以看到模型在翻译一个单词时,主要参考了源语言句子中的哪些部分。

总之当下看来 Transformer 在 NLP 领域是一次里程碑式的进步。

Transformer 原理

小白版

想象你正在看一部电影,你不仅会关注当前的画面,还会记住之前的剧情,比如人物、地点和事件等。当你看到一个新的画面时,你会自动地将这个画面与之前的剧情进行比较,看看它们之间有什么关联。这其实就是自注意力机制的原理,同时也是 Transformer 的基本思想,它可以帮助你理解每个画面在整个电影中的位置和重要性。Transformer就像是一个超级电影观众,它可以同时关注电影中的所有画面,并理解它们之间的关系。

大神版

0ff41bd5ad6eddc451da1d401b8aa1fd5266d0169575.jpeg 这张图出自 Google 的[《Attention Is All You Need》],是 Transformer 的基本结构,通过图可看出整个结构分为左右两块,左边的部分是编码器Encoder,右边的部分是解码器Decoder,可看出 Transformer 同时使用了 Encoder-Decoder 结构。根据不同的任务需要,使用对应的部分,一般编码器部分常用于文本编码分类,解码器部分用于语言模型生成,完整的编码器-解码器结构用于机器翻译。

从 Encoder-Decoder 结构宏观来看,翻译的流程是:

ED (4).jpg

而在 Encoders 和 Decoders 中都有 N 个 Encoder 和 Decoder(对应着原图中旁边的 N×),因为论文中的 N 为 6,所以我们这里图示 6 层 Encoder 和 6 层 Decoder。

ED (3).jpg

Encoder

每个 Encoder 分为两个部分,Multi-Head Attention(多头注意力)和 Feed-Forward(前馈)。

ED (5).jpg

Multi-Head Attention(多头注意力)

先说说 Multi-Head Attention(多头注意力),Multi-Head Attention 是在自注意力机制的基础上进行的扩展。我们不只进行一次自注意力计算,而是进行多次,每次都使用不同的权重矩阵。这样,每个"头"都能从不同的角度去捕捉序列中的信息,从而使得模型能够学习到更丰富的表示。

针对图上的例子,要翻译 The animal didn’t cross the street because it was too tired 这句话,模型需要理解句子中的 it 指代什么,但采用自注意力机制理解时会发现 it 有一部分注意力集中在了 The animal 上。这里也可以理解为此时是单头注意力(只有一种颜色的连线)

O1CN01Avr4dN1SFQoon5FOA_!!6000000002217-2-tps-437-413.avif

当采用多头注意力时,会发现此时 it 在模型中的表示,融合了 animal 和 tire 的部分表达。

O1CN01GhimJo23A3xYXsFdh_!!6000000007214-49-tps-438-395.webp

注意:图中左上角的 Layer 是指此时的 Transformer 在第 5 层 Encoder 的输出,不同颜色的线代表不同 Head 的注意力分布。

Feed-Forward(前馈)

如果把 Multi-Head Attention(多头注意力)想象成你正在看一场足球比赛,你的注意力可能会被分散到不同的地方,比如球员的位置、球的运动轨迹、比分等。你的大脑会同时处理这些信息。那么 Feed-Forward(前馈)就像是你的大脑对比赛的理解过程。你会根据你关注的信息,比如球员的位置和球的运动轨迹,来预测下一步会发生什么。

前馈网络是一个包含两个线性变换和一个非线性激活函数的神经网络。它会对从多头注意力机制中获取的信息进行进一步的非线性变换,从而生成更复杂的表示。这个过程是独立进行的,也就是说,每个位置的计算都不依赖于其他位置,这使得前馈网络可以高效地并行计算。

总之前馈网络的作用就是,它会对从多头注意力机制中获取的信息进行进一步的处理,从而生成更复杂的表示。

Decoder

由图可以看出 Decoder 其实与 Encoder 的结构类似,由 Masked Multi-Head Attention(遮罩多头注意力),Multi-Head Attention(多头注意力)和 Feed-Forward(前馈)三部分组成。

ED (6).jpg

Masked Multi-Head Attention(遮罩多头注意力)

想象你正在玩一个填字游戏,你需要根据已知的字母来猜测整个单词。在这个过程中,你不能看到单词的未来字母,只能根据已知的字母来进行推理。这就像是遮罩多头注意力机制,它让模型在处理序列时,只能关注到当前位置及其之前的部分,从而避免“偷看”未来的信息。

这是一种特殊的自注意力机制,它在计算注意力权重时,会使用一个遮罩矩阵来阻止模型关注到当前位置之后的部分。这样,模型在处理序列时,只能关注到当前位置及其之前的部分,从而避免在生成输出序列时提前获取未来的信息,从而影响输入结果。

尾言

Transformer 模型不仅在机器翻译等自然语言处理任务中取得了显著的效果,而且成为了许多当前主流的大型语言模型,如GPT和BERT等的基础。这些模型在各种任务中都表现出了强大的性能,包括文本分类、情感分析、命名实体识别、问答系统等。

了解 transformer 模型的原理,对于预测未来大型语言模型的发展方向,以及深入理解这些模型的工作原理都是非常有帮助的。这不仅可以让我们在与他人交谈时有更深的洞察力,而且可以帮助我们在开发应用时更好地利用模型的优点,迭代出更好的模型。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1872333.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2024软件设计师笔记之考点版(一考就过):40-50

软件设计师之一考就过:成绩版 考点40:排序算法(必须记住:插冒归快堆) 1、直接插入排序(这里以从小到大排序为例) ◆要注意的是,前提条件是前i-1个元素是有序的,第i个元素依次从第i-1个元素往前比较,直到找到一个比第i个元素值小的元素,而后插入,插入位置及其后的…

基于51单片机的银行排队呼叫系统设计

一.硬件方案 本系统是以排队抽号顺序为核心,客户利用客户端抽号,工作人员利用叫号端叫号;通过显示器及时显示当前所叫号数,客户及时了解排队信息,通过合理的程序结构来执行排队抽号。电路主要由51单片机最小系统LCD12…

Ngnix内存池——高并发实现高效内存管理

目录 一、高并发下传统方式的弊端 1、常用的内存操作函数 2、弊端一 3、弊端二 4、弊端三 5、弊端四 二、弊端解决之道 1、内存管理维度分析 2、内存管理组件选型 三、高并发内存管理最佳实践 1、内存池技术 2、内存池如何解决弊端 3、高并发内存池如何实现 四、…

【力扣高频题】011. 盛最多水的容器

前面的算法文章,更新了许多 专题系列 。包括:滑动窗口、动态规划、加强堆、二叉树递归套路 等。 还没读过的小伙伴可以关注一下,在主页中点击对应链接查看哦~ 接下来的一段时间,将持续 「力扣高频题」 系列文章,想刷 …

【python】OpenCV—Color Correction

文章目录 cv2.aruco 介绍imutils.perspective.four_point_transform 介绍skimage.exposure.match_histograms 介绍牛刀小试遇到的问题 参考学习来自 OpenCV基础(18)使用 OpenCV 和 Python 进行自动色彩校正 cv2.aruco 介绍 一、cv2.aruco模块概述 cv2.…

DC/AC电源模块:为新能源汽车充电系统提供高效能源转换

BOSHIDA DC/AC电源模块:为新能源汽车充电系统提供高效能源转换 DC/AC电源模块是新能源汽车充电系统中至关重要的组件,它能够将直流电转换为交流电,为电动车提供高效能源转换。随着人们对可持续能源的需求日益增长,新能源汽车成为…

Spring Cloud LoadBalancer基础入门与应用实践

官网地址:https://docs.spring.io/spring-cloud-commons/reference/spring-cloud-commons/loadbalancer.html 【1】概述 Spring Cloud LoadBalancer是由SpringCloud官方提供的一个开源的、简单易用的客户端负载均衡器,它包含在SpringCloud-commons中用…

4.制作的docker镜像

最近工作需要,制作docker镜像,用做构建使用。 1.拉取基础镜像ubuntu:22.04 docker pull ubuntu:22.042.运行ubuntu容器 docker run --privileged -d --name ubuntu_build ubuntu:22.04 sleep infinity3.进入运行的容器 docker exec -it ubuntu_build …

看完这篇,我太爷都要学习大模型了

2008年,年入过亿的媒体人Jeremy Clarkson心血来潮在英国牛津附近的Chadlington查德灵顿买了1000英亩(大约6000亩)的土地,并托管给了当地的一个农民大叔。作为地主老头的Clarkson从此每年坐收数万英镑的利润。 8年后,农…

解决Transformer根本缺陷,所有大模型都能获得巨大改进

即使最强大的 LLM 也难以通过 token 索引来关注句子等概念,现在有办法了。 最近两天,马斯克和 LeCun 的口水战妥妥成为大家的看点。这两位 AI 圈的名人你来我往,在推特(现为 X)上相互拆对方台。 LeCun 在宣传自家最新论…

【C++/STL】:优先级队列的使用及底层剖析仿函数

目录 💡前言一,优先级队列的使用二,仿函数1,什么是仿函数2,仿函数的简单示例 三,优先级队列的底层剖析 💡前言 优先队列(priority_queue)是一种容器适配器,默认使用vector作为其底层…

热点观察 | 《姜饼人王国》新作来袭、《Monopoly GO!》荣登5月全球畅销榜榜首

本周出海热点: 1. 中国品牌借欧洲杯打响知名度 2. 米哈游玩家切割二次元 3. 6月27日,Steam游戏《六月衷曲》上线TapTap 4. 《Monopoly GO!》荣登5月全球畅销榜榜首 5. 《地下城与勇士》拿下本周亚洲T1市场畅销榜冠军 6. 《姜饼人王国》新作强势登顶…

MySQL基础查询与复杂查询

基础查询 1、查询用户信息,仅显示用户的姓名与手机号,用中文显示列名。中文显示姓名列与手机号列。 2、根据商品名称进行模糊查询,模糊查询需要可以走索引,需要给出explain语句。使用explain测试给出的查询语句,需要显…

高中数学:复数-三角表示式

一、定义 辐角主值 二、复数乘除运算的三角表示及其几何意义 乘法 复数乘法的几何意义 除法 练习 解

Linux自动化交互脚本expect开发

在日常开发任务中,运行shell脚本有时候会提示输入密码的操作,如何让脚本自动输入密码呢?这时使用expect帮我们输入,Expect是基于Tcl发展而来的,它不仅可以进行交互,还可以根据程序的提示模拟标准输入&#…

AI原力觉醒:华硕NUC组团出道,快来Pick属于你的NUC

NUC 家族组团出道,全新的计算体验,重新定义桌面设备。AI加持下,谁最适合你? 颜值担当 NUC 14 Pro 居家必备单品 适用于广大消费者的NUC 14 Pro,不仅颜值在线,更多方位考虑您的日常所需,工作娱…

项目测试计划(Word)

1简介 1.1 目的 1.2 范围 2. 测试参考文档和测试提交文档 2.1 测试参考文档 2.2 测试提交文档 3. 测试策略 3.1整体测试策略 3.2功能测试 3.3 界面测试 3.4 性能测试 3.5 安全性测试 3.6 工具 4 测试阶段进入和退出标准 4.1进入标准 4.2退出标准 5 测试范围 5.1需要测试的模块 …

AirTestIDEA 使用windows窗口连接,切窗口后无法再操作已连接的游戏画面

目录 左上角: 选项 - 设置 - Windows窗口无嵌入链接(勾选), 再使用 Windows窗口连接,中的"选择游戏画面",可解决

【高等数学】一元函数积分及其应用:定积分与反常积分

文章目录 第一节. 定积分一. 定积分的概念1. 定义2. 定积分存在定理3. 定积分的几何意义与求解 二. 定积分的性质1. 不等式2. 中值定理 三. 积分上限(为x)函数1. 积分上限函数定义2. 积分函数求导3. 积分函数的奇偶性变化 四. 定积分的计算 第二节. 反常…

真实案例解析!企业如何做好安全生产管理工作?

很多企业都有相对应的安全管理制度,安全管理系统,安全管理人员等等,但这都仅限于企业“做了”安全生产管理,并不能“做好”安全生产管理。其实做好安全生产管理需要安全管理系统的配合。 听说过EHS系统吗?这系统能帮企…