以ChatGPT为例解析大模型背后的技术

news2025/4/5 16:10:05

目录

1、大模型分类

2、为什么自然语言处理可计算?

2.1、One-hot分类编码(传统词表示方法)

2.2、词向量

3、Transformer架构

3.1、何为注意力机制?

3.2、注意力机制在 Transformer 模型中有何意义?

3.3、位置编码(了解即可)

3.2、为什么说Attention 机制适合万事万物!

3.4、Self-Attention 自注意力机制

3.5、Transformer架构的强大性能

4、基础语言模型训练

5、涌现能力

5.1、提示工程(Prompt Engineering)

5.2、in-context learning(ICL、情景学习)

5.3、思维链(Chain of Thought,CoT)

6、人类反馈强化学习(Reinforcement Learning fromHuman Feedback,RLHF)

6.1、指令微调(SFT)

6.2、奖励模型(RM)

6.3、强化学习(PRO)

7、GPT-4

1、大模型分类

2、为什么自然语言处理可计算?

        词不是数字,非连续

        比如:张三和李四之间是什么关系?张三+李四、张三*李四等于什么?在之前这都是不可计算的。

        那么如何让自然语言可计算?

2.1、One-hot分类编码(传统词表示方法)

        假设词表共有五万个,那么就创建一个五万维的矢量(0,0,0,0.....0),张三对应的就是(1,0,0...0),李四对应的就是(0,1,0...0)

        One-hot虽然简单明了,但存在严重的维度灾难和无法表示词之间语义关系的缺点。

        例如,对于一个有10000个唯一词的语料库,One-hot编码会产生一个10000维的向量,其中99.99%的元素都是0,这造成了极大的存储和计算资源浪费。

        更重要的是,这种表示方法无法捕获词与词之间的语义关系,每个词都是孤立的。       

2.2、词向量

        以“人”来类比,首先,我们先举例:

        通过两个维度来表示一个人:[内向0/外向1,感性0/理性1]

        向量[1,1]则表示一个外向且理性的人;向量[0,0]则是内向且感性的人。

        那么,假设一个词我们用一个50维的向量就能完整表示,如单词king,对应GloVe向量为:

[ 0.50451 , 0.68607 , -0.59517 , -0.022801, 0.60046 , -0.13498 , -0.08813 , 0.47377 , -0.61798 , -0.31012 , -0.076666, 1.493 , -0.034189, -0.98173 , 0.68229 , 0.81722 , -0.51874 , -0.31503 , -0.55809 , 0.66421 , 0.1961 , -0.13495 , -0.11476 , -0.30344 , 0.41177 , -2.223 , -1.0756 , -1.0783 , -0.34354 , 0.33505 , 1.9927 , -0.04234 , -0.64319 , 0.71125 , 0.49159 , 0.16754 , 0.34344 , -0.25663 , -0.8523 , 0.1661 , 0.40102 , 1.1685 , -1.0137 , -0.21585 , -0.15155 , 0.78321 , -0.91241 , -1.6106 , -0.64426 , -0.51042 ]

注:这个50维向量是通过机器分析大量文本得出来的数据,训练生成这种向量的算法有很多,比如Word2Vec、GloVe等。(知晓即可)

        同样其它单词,也会有一个自己的50维向量,如man,woman。

        虽然我们无法理解这些数值的具体含义,但是人们经过分析,发现一个比较有意思的等式:

\widetilde{king}-\widetilde{man}+\widetilde{woman}\approx \widetilde{kueen}

​        这个等式含义:如果我们从“king”的向量中减去“man”的向量,再加上“woman”的向量,我们得到的结果非常接近“queen”的向量。        

        从自然语言上来说,就是从国王中去掉男性的属性,增加女性的属性,就变成了女王。

        这个数学上的近似相等且可计算和我们语义逻辑的合理性不谋而合,也从另一方面说明了这些向量背后有着我们人类无法感知的合理性。

        相比之下,词向量可以将词表示为稠密的向量(压缩至几百到几千维),可以有效缓解维度灾难问题,并且因为其连续的特性,相似的词在向量空间中会彼此接近,从而能够捕捉到丰富的语义关系。

        例如:通过训练得到的词向量,我们可以通过计算向量之间的距离来评估词语之间的相似度。

3、Transformer架构

        在谷歌2017年提出Transformer之前,也存在很多网络架构,如循环神经网络(RNN)、卷积神经网络(CNN)等,会先分析数据,例如:语音数据,大家会根据语音数据波形的特点(短时、稳态特性),利用这些特性去做频谱转换,形成特征数据,然后再找到一个可以表达这些数据的网络架构模型,逻辑上是让模型向数据靠近!

        Transformer恰恰相反,不再是模型向数据靠近,而是给了一个模型结构(此结构似乎与任何数据无关),但是,我们又可以将提取的特征数据输入到该模型中,相比其他架构,Transformer最核心的是引入了注意力机制(Attention Mechanism)。

3.1、何为注意力机制?

        我们拿人类社会来类比,“Attention”就是个体如何找准自己在团体中定位的问题,无论是在一个公司、还是在一个团队、还是在一个家庭里。

        比如说,新人进入一家大企业,成为一个部门中的一员,众所周知,公司是人与人之间、人与团队之间、团队与团队之间的协作。

        此时,“Attention 注意力机制”就可以理解为新人刚刚进入团队后的最基本诉求,即如何尽快地在一个几十人的团队中,搞清楚别人的工作与自己的工作之间的协作关系,从而找准自己的定位。

        为了让新人找准在团队中的定位并快速融入,此时你需要在团队中找出哪些人对你来说最关键。

        那么,从团队中其他每个人的角度出发,看看大家都对你这个岗位具体有什么诉求,从而让新人能够清晰地明白自己所在岗位在团队中的定位。

        这,就是Attention 注意力机制,即通过团队中其他人对自己的需求,来反观自己的定位。

        那么,Attention 注意力机制的好处是什么呢?        

        这种反观自己的定位方式,很明显并不是仅仅来自于个人的想象,也不仅仅因为个人的喜好,更不是只为了自己舒服,而是要考虑他人对自己的感受。我们对自己的定位,不是自己单相思想明白的,而是通过自己所处的环境,不断与环境相协调,不管是主动地还是被动地通过环境的反馈来反观自己,这就是人的社会属性决定的自我定位——Attention 注意力机制!

3.2、注意力机制在 Transformer 模型中有何意义?

        注意力机制是 Transformer 架构的一项关键创新。

        它使模型能够专注于输入文本中最相关的部分,从而更好地理解其含义。

        举个例子,假设我们有一句话:The cat sat on the mat.

        在这句话中,我们希望确定句中每个单词在预测下一个单词时的重要性。为了完成这个任务,Transformer 模型计算了每个单词相对于其他单词的注意力分数。

        比如,单词 cat 对于 sat 是非常重要的,因为它们在语义上相关。通过这种机制,Transformer 可以自适应地为每个单词分配权重,从而有效捕捉语义依赖关系。

        这一过程使模型能够捕捉词语之间的长距离依赖关系,更好地理解句子的上下文。

3.3、位置编码(了解即可)

        Transformer模型中的位置编码(Positional Encoding)是用于向模型提供序列中各个元素位置信息的机制。

        由于Transformer模型依赖于自注意力机制(self-attention mechanism),该机制在计算时对序列中的所有位置一视同仁,这种特性使得模型在处理序列数据时缺乏位置信息,它不像卷积神经网络或循环神经网络中固有的序列顺序信息,因此,为了让模型能够区分序列中的不同位置,必须引入位置信息。

3.2、为什么说Attention 机制适合万事万物!

        你可能会发现到,作为系统内在的一种必然机制,无论你是否认识到“Attention 机制”的存在,你都在有意无意地践行“Attention 机制”,因为这世间的每一个个体都在为自己能在这个世界的环境中生存而不断地做着“适者生存”的努力。而这种努力,必须首先在找准自己的定位的前提下进行。

        “Attention 机制”不仅仅局限于所有有社会属性的地方,如人群、鲸群、狼群、蜂群等等,在植物界、微生物界,它同样是最重要的内在运行机制,甚至无机物界也一样,一颗石头、一滴水、一张图片、一段语言、一碗螺蛳粉。。。。都需要 “Attention 机制”!

        可以说,不管动物还是植物,找准了自己定位,就是给自己的生存打下了基础。

        然后,让我们再往下思考一步。整个生物界可以做 Attention 机制,非生物界呢?

        用尤瓦尔赫拉利在他的著作《人类简史》中的阐述回答:“这世间的一切皆是算法!”

通过以上的介绍描述,我们可以发现,Attention 机制的理念与词向量的理念颇为契合,都是通过其他维度来对自己进行一个描述或定位。

3.4、Self-Attention 自注意力机制

        Self-Attention 自注意力机制就是团队中的每一个人都像你一样与团队中其他人做一遍注意力机制,这就是 “Self-Attention 自注意力机制”了。这个“自”指的就是“整个团队”。

        Self-Attention 自注意力机制的好处是什么呢?

        Self-Attention 自注意力机制可以使得团队中的每一个人都可以找准自己的定位,避免了猪队友的出现,那么这个团队也就整体上找准了自己的内部运作规律,全部成员拧成一股绳,大家齐心协力攻克任务,效率与品质自然达到了最优状态,这个团队也就是一个十分优秀的团队了。

        当然,这个团队再往上,以至于全公司也可以做Self-Attention 自注意力机制。也就是说全公司所有团队,不管业务、行政、产品、技术研发、客服等等都作为公司总体的不同组成单元,互相做注意力机制的优化,那么这家公司也就变成一家优秀的公司了。。

        不管团队中的成员是否意识到了这个机制的存在,不管他们是否主动地去做这个机制,只要这个团队存在一天,这个体系的运作最终都会对每一个成员进行自然而然地Self-Attention 自注意力机制。因为,这是团队系统运行的内在需要,是大家组成这个团队的最终目的的需要。

3.5、Transformer架构的强大性能

         Transformer摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)在处理序列数据时的局限性,首次完全依赖于自注意力机制(Self-Attention Mechanism)。

        这种机制允许模型直接关注输入序列中的任意两个元素之间的关系,从而实现全局信息的捕获和建模,而不受限于局部上下文窗口。

        第一、全局依赖

         🔍首先,让我们深入了解Transformer模型的核心构造。它主要由自注意力机制和位置编码组成。这两部分的设计使得模型能够理解和处理输入数据中的长距离依赖关系,这在传统模型中是一个巨大的挑战。
        🌐自注意力机制允许每个输入位置考虑全局信息,从而更好地理解上下文。这意味着,当我们识别一个词的含义时,它不仅考虑前面的词,还会考虑到后面的词,甚至是远离它的词,这样使得整体信息被全面捕获。RNN和CNN缺乏长上下文是Transformer在任务中击败它们的最大原因。

  第二、并行性

  与传统的循环神经网络(RNN顺序处理特性)相比,RNN的每一步计算依赖于前一步的结果,而Transformer的优势之一是并行计算。由于自注意力机制允许模型同时处理输入序列的所有元素,而无需像循环神经网络(RNN)那样按顺序迭代,因此可以在一次计算中处理整个序列,大大减少了计算时间。

        自注意力机制的计算过程如下:

  1. 首先,将输入序列的每个元素(词或字)映射到一个向量表示。这些向量表示称为查询(Query)、键(Key)和值(Value)。
  2. 然后,计算每个元素的查询向量与其他所有元素的键向量之间的点积。这个点积的结果表示两个元素之间的相关性。
  3. 接下来,使用softmax函数对点积结果进行归一化。这会得到一组权重,表示每个元素对其他元素的相对重要性。
  4. 最后,将归一化后的权重与对应的值向量相乘,并对所有元素求和。这个求和结果是输出序列中与输入序列相对应的新元素。

        在这个过程中,我们可以同时计算输入序列中所有元素的查询-键点积、权重归一化以及权重与值向量的乘积

        这些计算是独立的,因此可以在硬件(如GPU和TPU)上实现并行处理。通过这种方式,自注意力机制充分利用了并行计算的优势,从而显著提高了模型的处理速度。

  第三、灵活性

        模型结构不根据数据定制

        第四、情景学习(下文会叙述)

3.6、简单理解Transformer

        传统的方法(RNN)在处理文本时,遵循着逐词处理的模式,就像阅读书籍时,一个词一个词往后读取信息。然而,Transformer模型打破了这一传统,它能够同时处理一句话或一段话中的所有词语,无需像RNN(循环神经网络)那样,每个时间步(t步骤)的计算都必须依赖于前一个时间步(t-1步骤)的结果。

        Transformer模型特别擅长于识别并关注句子中不同的重要部分。就像我们在阅读文章时,会自然而然地关注章节标题、关键词或句子中的核心信息一样,Transformer也能通过其注意力机制来聚焦这些关键信息。

        尽管Transformer能够一次性处理整个句子中的所有词语,但它无法直接捕获序列中单词的位置信息。为了弥补这一缺陷,Transformer引入了位置编码的概念,这样模型就能够知道每个单词在句子中的具体位置,从而保留了语言的顺序性。

4、基础语言模型训练

        暴力美学!

        将所有能够收集到的数据,经过严格的清洗后,投喂到模型结构中:

模型名称        模型参数量训练数据
GPT117M4.6G
GPT-21.5B40G
GPT-3175B757G

        可以看出,GPT的训练数据越来越多,GPT-3中757G的训练数据是从几十T的数据中清洗出来的。

        随着训练数据的增多,量变引起了质变!

5、涌现能力

        涌现现象的经典含义是指,在一个复杂系统中,组成该系统基本元素之间相互作用,产生了全新的、宏观的性质或行为。

        举个例子给大家说明:

        单只蚂蚁在自然环境中行动,它只会寻找食物和避开危险,但是当大量蚂蚁一起行动时,它们能够建造出非常复杂的蚁穴。这些蚁穴甚至有特定的通风和温度控制系统,但每只蚂蚁并不知道整个蚁穴的设计,他们没有预先规划好的图纸,却能完成这样的大型工程,这就是典型的涌现现象。

        但GPT 4.0给我们带来的震撼过于庞大,以至于我们在大模型中,对涌现现象的具体定义为:在小模型中没有的能力,却在大模型中突然出现的现象(在大模型参数增加到某一临界点后突然出现)。

        这个定义中所谓的“小模型”,已经是大模型出现前人类世界AI发展的皇冠,代表了有史以来最先进的硅基智能能力。

        注意刚刚所说的”突然出现“,这意味着涌现现象的第二层含义:我们无法确定涌现的发生点!

        我们可以很明确地观测到,一旦模型大小超过某一个阈值,模型就像修炼突破了一样,展现出前所未有的能力。但同时,这个阈值却无法预测!我们无法确定模型什么时候能完成下一境界的突破。

5.1、提示工程(Prompt Engineering)

        即:如何与大模型去交互,才能诱导模型出现强大的能力。

        提示工程是一种针对预训练语言模型(如GPT),通过设计、实验和优化输入提示词来引导模型生成高质量,准确和有针对性的输出的技术。

        本质上来说,提示工程也是一种人机交互的方式,提示词就是我们发给大模型的输入(指令),大模型根据指令,结合自身预训练的“知识”,输出指令相关的内容。而大模型输出结果的好坏,和我们输入的指令息息相关。

        如今,很多AI公司都在做提示工程。

5.2、in-context learning(ICL、情景学习)

        传统意义上的机器学习模型,都是被训练来做特定的任务,例如分类(输入餐厅的评论,预测是正面或负面的评价)、翻译(把中文翻译成英文)、或是摘要(把一篇长文浓缩成一句话)。

        这每一项任务,都要有个「机器学习工程师」花上几周甚至几个月的时间,准备好一个干净的训练数据集,喂入好几种算法,不断调整一堆参数,最后才能训练出一个堪用的模型。而这样的模型除了做当初训练它的任务之外,其他什么都不能做。分类狗的模型就是只能分类狗,如果要分类颜色或大小都不行,更别提要它做翻译。

        也就是说,传统意义上的每个模型就只能做特定的一件任务,能力边界非常清楚。但GPT-3出现后,大家开始发现一些神奇和无法解释的事情。

        大型语言模型(LLM)当初被训练做的任务是“给定一段文字,预测下一个字。”

        训练数据是网络上数十亿篇的各式文章,没有专注在特定领域。当初训练这样的模型时,研究者主要的期望是这样的模型可以用来辅助写作和产生文章,所以才喂给它大量的文章示例。

        但是,LLM被训练出来后,大家意外发现它还有一个特殊的超能力—in-context learning

        只要给它不同的提示,它就会展现出不同的能力。即使训练数据中没有这样的示例也行。更神奇的事,这个语境学习能力可以让LLM的能力边界扩展到它没被直接训练过的任务,而且还做得非常好。

        例如:

        问题1:“马尔济斯是白色,狮子是棕色,老虎是什么颜色?”

        ChatGPT:“老虎的一般为橙色带黑色条纹。”

        问题2:“马尔济斯体型小,西藏獒犬体型?”

        ChatGPT:“西藏獒犬一般是大型犬。”

        上面的示例展示了LLM能根据提示变成“动物颜色分类器”,也还能变成“动物大小分类器”。我们不用重新训练模型,只要给它非常少的示例,它就会根据这些示例变成不同的预测机器。这样的能力,不只让大众惊讶不已,连行内的研究者也还搞不太清楚是怎么回事。

5.3、思维链(Chain of Thought,CoT)

        简单来说,思维链是一种改进的Prompt技术,用于提升大模型在复杂推理任务上的表现,特别是涉及到推理和多步骤思考的问题,而这一系列推理的中间步骤就被称为思维链。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍  

        在这百模大战中,国内外很多企业相继推出自己的大模型,而且模型的规模和性能也在不断提升,展现了很多令人吃惊的能力,比如文本生成,内容摘要,问答等。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

        虽然大模型很强大,但大模型在某些方面依然有所欠缺,类似于GPT这种强大模型也有频频翻车的案例出现,比如,在数学计算,逻辑推理等方面表现较差。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

        而这正是思维链可以解决的问题,思维链通过要求模型在输出最终答案之前,显示输出中间逐步的推理步骤这一方法来增强大模型在数学,常识和推理方面的能力。‍‍‍‍‍‍‍‍‍‍

        区别于传统的Prompt从输入直接到输出的映射<input——>output>的方式,CoT完成从输入到思维链再到输出的映射,即<input——>reasoning chain(推理链) ——> output>;

        举例来说,3+5=8,如何让计算机计算出3+5=8,就需要把计算的思维过程给到计算机。

6、人类反馈强化学习(Reinforcement Learning fromHuman Feedback,RLHF)

        基于以上的所有内容训练出来的模型(已经在海量数据上进行了预训练),会一本正经地胡说八道,所以需要人类干预反馈强化学习,旨在优化大型语言模型(LLM)的行为,使其更符合人类的期望。

6.1、指令微调(SFT)

        举个例子: 一个预训练的语言模型可以进行各种文本任务,但如果我们想让它专门做客服机器人,就可以用客服对话数据对它进行微调,让它更擅长回答用户的问题。

6.2、奖励模型(RM)

       将人类反馈转化为奖励信号,形成一个奖励模型(Reward Model, RM)。该模型用于评估不同输出的质量,并为后续的强化学习提供反馈 。

6.3、强化学习(PRO)

        根据奖励信号调整其策略参数,以提高未来获得高奖励的概率。这一过程是迭代进行的,直到模型达到预期性能水平。

        

        最终,让 AI 胜任特定任务,生成更符合人类价值观和喜好的内容。即:让 AI 学会察言观色,更懂人类偏好。

7、GPT-4

 
        

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2302142.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Redis-缓存过期和内存淘汰

缓存过期&&内存淘汰 过期删除如何设置过期时间判断key是否过期过期删除策略有哪些定时删除惰性删除定期删除Redis过期删除策略 内存淘汰策略如何设置Redis最大运行内存Redis内存淘汰策略有哪些不进行数据淘汰进行数据淘汰的策略设置了过期时间的数据中进行淘汰所有数据…

七星棋牌全开源修复版源码解析:6端兼容,200种玩法全面支持

本篇文章将详细讲解 七星棋牌修复版源码 的 技术架构、功能实现、二次开发思路、搭建教程 等内容&#xff0c;助您快速掌握该棋牌系统的开发技巧。 1. 七星棋牌源码概述 七星棋牌修复版源码是一款高度自由的 开源棋牌项目&#xff0c;该版本修复了原版中的多个 系统漏洞&#…

第六届计算机信息和大数据应用国际学术会议(CIBDA 2025)

重要信息 大会官网&#xff1a;www.ic-cibda.org&#xff08;了解会议&#xff0c;投稿等&#xff09; 大会时间&#xff1a;2025年3月14-16日 大会地点&#xff1a;中国-武汉 简介 第六届计算机信息和大数据应用&#xff08;CIBDA 2025&#xff09;将于2025年3月14-16日在中国…

PyTorch 深度学习框架中 torch.cuda.empty_cache() 的妙用与注意事项

&#x1f349; CSDN 叶庭云&#xff1a;https://yetingyun.blog.csdn.net/ 在使用 PyTorch 进行深度学习模型训练与调优过程中&#xff0c;torch.cuda.empty_cache() 方法作为一种高效工具被广泛采用&#xff1b;但其正确应用要求充分理解该方法的功能及最佳实践。下文将对该方…

快速入门——Vue框架快速上手

学习自哔哩哔哩上的“刘老师教编程”&#xff0c;具体学习的网站为&#xff1a;8.Vue框架快速上手_哔哩哔哩_bilibili&#xff0c;以下是看课后做的笔记&#xff0c;仅供参考。 第一节&#xff1a;前端环境准备 编码工具VSCode【www.code.visualstudio.com】/WebStorm也可&am…

zookeeper集群配置

配置 一、配置myid文件 # 进入解压好的文件夹下面 touch myid vim myid # master节点写0&#xff0c;slave1节点写1&#xff0c;slave2节点写2二、配置zoo.cfg文件 1.在master节点编辑zookeeper配置文件 # 进入解压好的文件夹下面 cd conf/ cp zoo_sample.cfg zoo.cfg vim …

掌握.NET Core后端发布流程,如何部署后端应用?

无论你是刚接触.NET Core的新手还是已有经验的开发者&#xff0c;在这篇文章中你将会学习到一系列实用的发布技巧与最佳实践&#xff0c;帮助你高效顺利地将.NET Core后端应用部署到生产环境中 目录 程序发布操作 Docker容器注册表 文件夹发布 导入配置文件 网站运行操作 …

华为昇腾920b服务器部署DeepSeek翻车现场

最近到祸一台HUAWEI Kunpeng 920 5250&#xff0c;先看看配置。之前是部署的讯飞大模型&#xff0c;发现资源利用率太低了。把5台减少到3台&#xff0c;就出了他 硬件配置信息 基本硬件信息 按照惯例先来看看配置。一共3块盘&#xff0c;500G的系统盘&#xff0c; 2块3T固态…

使用Python添加、读取和删除Word文档属性

在Python中处理Word文档时&#xff0c;对文档属性进行操作是一项重要的任务。文档属性主要分为内置属性&#xff08;如标题、作者等&#xff09;和自定义属性&#xff08;用户根据自身需求定义的属性&#xff09;。合理地管理这些属性&#xff0c;能够提升文档管理效率、优化信…

Day15-后端Web实战-登录认证——会话技术JWT令牌过滤器拦截器

目录 登录认证1. 登录功能1.1 需求1.2 接口文档1.3 思路分析1.4 功能开发1.5 测试 2. 登录校验2.1 问题分析2.2 会话技术2.2.1 会话技术介绍2.2.2 会话跟踪方案2.2.2.1 方案一 - Cookie2.2.2.2 方案二 - Session2.2.2.3 方案三 - 令牌技术 2.3 JWT令牌2.3.1 介绍2.3.2 生成和校…

VSCode运行Go程序报错:Unable to process `evaluate`: debuggee is running

如果使用默认的VSCode的服务器来运行Go程序&#xff0c;那么使用fmt.Scan函数输入数据的时候就会报错&#xff0c;我们需要修改launch.json文件&#xff0c;将Go程序运行在shell终端上。 main.go package mainimport "fmt"func main() {var n intfmt.Scan(&n)v…

IntersectionObserver用法

IntersectionObserver用法 1.什么是IntersectionObserver&#xff1f;2.使用2.1 创建观察对象2.2 观察指定DOM对象2.3 参数详解(1)callback参数(2)options 配置参数 3.应用3.1 Dom进入页面的加载动画3.2 图片的懒加载 1.什么是IntersectionObserver&#xff1f; IntersectionO…

R语言NIMBLE、Stan和INLA贝叶斯平滑及条件空间模型死亡率数据分析:提升疾病风险估计准确性...

全文链接&#xff1a;https://tecdat.cn/?p40365 在环境流行病学研究中&#xff0c;理解空间数据的特性以及如何通过合适的模型分析疾病的空间分布是至关重要的。本文主要介绍了不同类型的空间数据、空间格点过程的理论&#xff0c;并引入了疾病映射以及对空间风险进行平滑处理…

DeepSeek - R1:模型架构深度解析

DeepSeek - R1&#xff1a;模型架构深度解析 引言 本文将深入探索DeepSeek - R1模型架构。将从输入到输出追踪DeepSeek - R1模型&#xff0c;找出架构中的新发展和关键部分。DeepSeek - R1基于DeepSeek - V3 - Base模型架构&#xff0c;本文旨在涵盖其设计的所有重要方面。 …

火绒终端安全管理系统V2.0【系统防御功能】

火绒企业版V2.0系统防御功能包含系统加固、应用加固、软件安装拦截、摄像头保护和浏览器保护。火绒终端安全管理软件V2.0守护企业用户终端安全。 系统防御 1. 系统加固 系统加固功能根据火绒提供的安全加固策略&#xff0c;当程序对特定系统资源操作时提醒用户可能存在的安…

Word中接入大模型教程

前言 为什么要在word中接入大模型呢&#xff1f; 个人觉得最大的意义就是不用来回切换与复制粘贴了吧。 今天分享一下昨天实践的在word中接入大模型的教程。 在word中接入大模型最简单的方式就是使用vba。 vba代码要做的事&#xff0c;拆分一下就是&#xff1a; 获取用户…

【git-hub项目:YOLOs-CPP】本地实现04:项目简化

项目跑通之后,我们常常还需要对我们没有用到的任何内容进行删除,以简化项目体积,也便于我们阅读和后续部署。如何实现呢?本篇博客教会大家实现! 项目一键下载【⬇️⬇️⬇️】: 精简后:【GitHub跑通项目:YOLOs-CPP】+【计算机视觉】+【YOLOv11模型】+【windows+Cpp+ONN…

CTF 代码学习日记 PHP

基础 2字符串连接可以使用点号&#xff08;.&#xff09; 3.$_&#xff1a;在 PHP 中&#xff0c;以$_开头的变量&#xff08;如$_GET、$_POST、$_COOKIE等&#xff09;是超级全局变量。超级全局变量的特点是它们在 PHP 脚本的任何地方&#xff08;包括函数内部、类内部等&am…

观察者模式说明(C语言版本)

观察者模式主要是为了实现一种一对多的依赖关系&#xff0c;让多个观察者对象同时监听某一个主题对象。这个主题对象在状态发生变化时&#xff0c;会通知所有观察者对象&#xff0c;使它们能够自动更新自己。下面使用C语言实现了一个具体的应用示例&#xff0c;有需要的可以参考…

【从0做项目】Java搜索引擎(6) 正则表达式鲨疯了优化正文解析

阿华代码&#xff0c;不是逆风&#xff0c;就是我疯 你们的点赞收藏是我前进最大的动力&#xff01;&#xff01; 希望本文内容能够帮助到你&#xff01;&#xff01; 目录 文章导读 零&#xff1a;项目结果展示 一&#xff1a;导读&知识点回顾 二&#xff1a;遗留问题 …