一文读懂 Transformer 神经网络模型

news2024/11/26 17:30:50

今天我们来聊一下人工智能(AI)生态领域相关的技术 - Transformer 神经网络模型 。

自从最新的大型语言模型(LLaM)的发布,例如 OpenAI 的 GPT 系列、开源模型 Bloom 以及谷歌发布的 LaMDA 等,Transformer 模型已经展现出了其巨大的潜力,并成为深度学习领域的前沿架构楷模。

01

什么是 Transformer 模型 ?

在过去几年中,Transformer 模型已经成为高级深度学习和深度神经网络领域的热门话题。自从其在 2017 年被引入以来,Transformer 深度学习模型架构已经在几乎所有可能的领域中得到了广泛应用和演进。该模型不仅在自然语言处理任务中表现出色,还对于其他领域,尤其是时间序列预测方面,也具有巨大的帮助和潜力。

那么,什么是 Transformer 神经网络模型?

Transformer 模型是一种深度学习架构,自 2017 年推出以来,彻底改变了自然语言处理 (NLP) 领域。该模型由 Vaswani 等人提出,并已成为 NLP 界最具影响力的模型之一。

通常而言,传统的顺序模型(例如循环神经网络 (RNN))在捕获远程依赖性和实现并行计算方面存在局限性。为了解决这些问题,Transformer 模型引入了自注意力机制,通过广泛使用该机制,模型能够在生成输出时权衡输入序列中不同位置的重要性。

Transformer 模型通过自注意力机制和并行计算的优势,能够更好地处理长距离依赖关系,提高了模型的训练和推理效率。它在机器翻译、文本摘要、问答系统等多个 NLP 任务中取得了显著的性能提升。

除此之外,Transformer 模型的突破性表现使得它成为现代 NLP 研究和应用中的重要组成部分。它能够捕捉复杂的语义关系和上下文信息,极大地推动了自然语言处理的发展。

02

Transformer 模型历史发展

Transformer 在神经网络中的历史可以追溯到20世纪90年代初,当时 Jürgen Schmidhuber 提出了第一个 Transformer 模型的概念。这个模型被称为"快速权重控制器",它采用了自注意力机制来学习句子中单词之间的关系。然而,尽管这个早期的 Transformer 模型在概念上是先进的,但由于其效率较低,它并未得到广泛的应用。

随着时间的推移和深度学习技术的发展,Transformer 在2017年的一篇开创性论文中被正式引入,并取得了巨大的成功。通过引入自注意力机制和位置编码层,有效地捕捉输入序列中的长距离依赖关系,并且在处理长序列时表现出色。此外,Transformer 模型的并行化计算能力也使得训练速度更快,推动了深度学习在自然语言处理领域的重大突破,如机器翻译任务中的BERT(Bidirectional Encoder Representations from Transformers)模型等。

因此,尽管早期的"快速权重控制器"并未受到广泛应用,但通过 Vaswani 等人的论文,Transformer 模型得到了重新定义和改进,成为现代深度学习的前沿技术之一,并在自然语言处理等领域取得了令人瞩目的成就。

Transformer 之所以如此成功,是因为它能够学习句子中单词之间的长距离依赖关系,这对于许多自然语言处理(NLP)任务至关重要,因为它允许模型理解单词在句子中的上下文。Transformer 利用自注意力机制来实现这一点,该机制使得模型在解码输出标记时能够聚焦于句子中最相关的单词。

Transformer 对 NLP 领域产生了重大影响。它现在被广泛应用于许多 NLP 任务,并且不断进行改进。未来,Transformer 很可能被用于解决更广泛的 NLP 任务,并且它们将变得更加高效和强大。

有关神经网络 Transformer 历史上的一些关键发展事件,我们可参考如下所示:

1、1990年:Jürgen Schmidhuber 提出了第一个 Transformer 模型,即"快速权重控制器"。

2、2017年:Vaswani 等人发表了论文《Attention is All You Need》,介绍了 Transformer 模型的核心思想。

3、2018年:Transformer 模型在各种 NLP 任务中取得了最先进的结果,包括机器翻译、文本摘要和问答等。

4、2019年:Transformer 被用于创建大型语言模型(LLM),例如 BERT 和 GPT-2,这些模型在各种 NLP 任务中取得了重要突破。

5、2020年:Transformer 继续被用于创建更强大的模型,例如 GPT-3,它在自然语言生成和理解方面取得了惊人的成果。

总的来说,Transformer 模型的引入对于 NLP 领域产生了革命性的影响。它的能力在于学习长距离依赖关系并理解上下文,使得它成为众多 NLP 任务的首选方法,并为未来的发展提供了广阔的可能性。

03

Transformer 模型通用架构设计

Transformer 架构是从 RNN(循环神经网络)的编码器-解码器架构中汲取灵感而来,其引入了注意力机制。它被广泛应用于序列到序列(seq2seq)任务,并且相比于 RNN, Transformer 摒弃了顺序处理的方式。

不同于 RNN,Transformer 以并行化的方式处理数据,从而实现更大规模的并行计算和更快速的训练。这得益于 Transformer 架构中的自注意力机制,它使得模型能够同时考虑输入序列中的所有位置,而无需按顺序逐步处理。自注意力机制允许模型根据输入序列中的不同位置之间的关系,对每个位置进行加权处理,从而捕捉全局上下文信息。

class EncoderDecoder(nn.Module):
    """
    A standard Encoder-Decoder architecture. Base for this and many 
    other models.
    """
    def __init__(self, encoder, decoder, src_embed, tgt_embed, generator):
        super(EncoderDecoder, self).__init__()
        self.encoder = encoder
        self.decoder = decoder
        self.src_embed = src_embed
        self.tgt_embed = tgt_embed
        self.generator = generator
        
    def forward(self, src, tgt, src_mask, tgt_mask):
        "Take in and process masked src and target sequences."
        return self.decode(self.encode(src, src_mask), src_mask,
                            tgt, tgt_mask)
    
    def encode(self, src, src_mask):
        return self.encoder(self.src_embed(src), src_mask)
    
    def decode(self, memory, src_mask, tgt, tgt_mask):
        return self.decoder(self.tgt_embed(tgt), memory, src_mask, tgt_mask)

class Generator(nn.Module):
    "Define standard linear + softmax generation step."
    def __init__(self, d_model, vocab):
        super(Generator, self).__init__()
        self.proj = nn.Linear(d_model, vocab)

    def forward(self, x):
        return F.log_softmax(self.proj(x), dim=-1)

针对 Transformer 的模型通用架构,我们可參考如下所示:

基于如上的 Transformer 深度学习模型的整体架构参考模型图,我们可以看到:它由两个主要组件组成:

1、编码器堆栈

这是由 Nx 个相同的编码器层组成的堆栈(在原始论文中,Nx=6)。每个编码器层都由两个子层组成:多头自注意力机制和前馈神经网络。多头自注意力机制用于对输入序列中的不同位置之间的关系进行建模,而前馈神经网络则用于对每个位置进行非线性转换。编码器堆栈的作用是将输入序列转换为一系列高级特征表示。

Transformer 编码器的整体架构。我们在 Transformer 编码器中使用绝对位置嵌入,具体可参考如下:

2、解码器堆栈

这也是由 Nx 个相同的解码器层组成的堆栈(在原始论文中,Nx=6)。每个解码器层除了包含编码器层的两个子层外,还包含一个额外的多头自注意力机制子层。这个额外的自注意力机制用于对编码器堆栈的输出进行关注,并帮助解码器对输入序列中的信息进行解码和生成输出序列。

在编码器和解码器堆栈之间,还有一个位置编码层。这个位置编码层的作用是利用序列的顺序信息,为输入序列中的每个位置提供一个固定的编码表示。这样,模型可以在没有递归或卷积操作的情况下,利用位置编码层来处理序列的顺序信息。

Transformer 解码器的整体架构,具体可参考如下所示:

在实际的场景中,两者的互动关系如下:

04

什么是 Transformer 神经网络?

众所周知,Transformer 在处理文本序列、基因组序列、声音和时间序列数据等神经网络设计中起着关键作用。其中,自然语言处理是 Transformer 神经网络最常见的应用领域。

当给定一个向量序列时,Transformer 神经网络会对这些向量进行编码,并将其解码回原始形式。而 Transformer 的注意力机制则是其不可或缺的核心组成部分。注意力机制表明了在输入序列中,对于给定标记的编码,其周围其他标记的上下文信息的重要性。

打个比方,在机器翻译模型中,注意力机制使得 Transformer 能够根据所有相关单词的上下文,将英语中的"it"正确翻译为法语或西班牙语中的性别对应的词汇。 Transformers 能够利用注意力机制来确定如何翻译当前单词,同时考虑其周围单词的影响。

然而,需要注意的是,Transformer 神经网络取代了早期的循环神经网络(RNN)、长短期记忆(LSTM)和门控循环单元(GRU)等模型,成为了更为先进和有效的选择。

通常而言,Transformer 神经网络接受输入句子并将其编码为两个不同的序列:

1、词向量嵌入序列

词向量嵌入是文本的数字表示形式。在这种情况下,神经网络只能处理转换为嵌入表示的单词。字典中的单词在嵌入表示中表示为向量。

2、位置编码器序列

位置编码器将原始文本中单词的位置表示为向量。Transformer 将词向量嵌入和位置编码结合起来。然后,它将组合结果发送到各个编码器,然后是解码器。

与 RNN 和 LSTM 按顺序提供输入不同,Transformer 同时提供输入。每个编码器将其输入转换为另一个向量序列,称为编码。

解码器以相反的顺序工作。它将编码转换回概率,并根据概率生成输出单词。通过使用 softmax 函数,Transformer 可以根据输出概率生成句子。

每个解码器和编码器中都有一个称为注意力机制的组件。它允许一个输入单词使用其他单词的相关信息进行处理,同时屏蔽不包含相关信息的单词。

为了充分利用 GPU 提供的并行计算能力,Transformer 使用多头注意力机制进行并行实现。多头注意力机制允许同时处理多个注意力机制,从而提高计算效率。

相比于 LSTM 和 RNN,Transformer 深度学习模型的优势之一是能够同时处理多个单词。这得益于 Transformer 的并行计算能力,使得它能够更高效地处理序列数据。

05

常见的 Transformer 模型

截止目前,Transformer 是构建世界上大多数最先进模型的主要架构之一。它在各个领域取得了巨大成功,包括但不限于以下任务:语音识别到文本转换、机器翻译、文本生成、释义、问答和情感分析。这些任务中涌现出了一些最优秀和最著名的模型。

基于 Transformer 的模型体系图

1、BERT(双向编码器表示的 Transformer )

作为一种由 Google 设计的技术,针对自然语言处理而开发,基于预训练的 Transformer 模型,当前被广泛应用于各种 NLP 任务中。

在此项技术中,双向编码器表示转化为了自然语言处理的重要里程碑。通过预训练的 Transformer 模型,双向编码器表示(BERT)在自然语言理解任务中取得了显著的突破。BERT 的意义如此重大,以至于在 2020 年,几乎每个英语查询在 Google 搜索引擎中都采用了 BERT 技术。

BERT 的核心思想是通过在大规模无标签的文本数据上进行预训练,使模型学习到丰富的语言表示。BERT 模型具备双向性,能够同时考虑一个词在上下文中的左侧和右侧信息,从而更好地捕捉词语的语义和语境。

BERT 的成功标志着 Transformer 架构在 NLP 领域的重要地位,并在实际应用中取得了巨大的影响。它为自然语言处理领域带来了重大的进步,并为搜索引擎等应用提供了更准确、更智能的语义理解。

2、GPT-2 / GPT-3(生成预训练语言模型)

生成式预训练 Transformer 2和3分别代表了最先进的自然语言处理模型。其中,GPT(Generative Pre-trained Transformer)是一种开源的 AI 模型,专注于处理自然语言处理(NLP)相关任务,如机器翻译、问答、文本摘要等。

上述两个模型的最显著区别在于“规模”和“功能”。具体而言,GPT-3 是最新的模型,相比于 GPT-2,其引入了许多新的功能和改进。除此之外,GPT-3 的模型容量达到了惊人的 1750 亿个机器学习参数,而 GPT-2 只有 15 亿个参数。

具备如此巨大的参数容量,GPT-3 在自然语言处理任务中展现出了令人惊叹的性能。它具备更强大的语言理解和生成能力,能够更准确地理解和生成自然语言文本。此外,GPT-3 在生成文本方面尤为出色,能够生成连贯、富有逻辑的文章、对话和故事。

GPT-3 的性能提升得益于其庞大的参数规模和更先进的架构设计。它通过在大规模文本数据上进行预训练,使得模型能够学习到更深入、更全面的语言知识,从而使得 GPT-3 能够成为目前最强大、最先进的生成式预训练 Transformer 模型之一。

当然,除了上面的 2 个核心模型外,T5、BART 和 XLNet 也是 Transformer(Vaswani 等人,2017)家族的成员。这些模型利用 Transformer 的编码器、解码器或两者来进行语言理解或文本生成。由于篇幅原因,暂不在本篇博文中赘述。

05

Transformer 模型并不是完美的

与基于 RNN 的 seq2seq 模型相比,尽管 Transformer 模型在自然语言处理领域取得了巨大的成功,然而,其本身也存在一些局限性,主要包括以下几个方面:

1、高计算资源需求

Transformer 模型通常需要大量的计算资源进行训练和推理。由于模型参数众多且复杂,需要显著的计算能力和存储资源来支持其运行,从而使得在资源受限的环境下应用 Transformer 模型变得相对困难。

2、长文本处理困难

在某些特定的场景下,由于 Transformer 模型中自注意力机制的特性,其对于长文本的处理存在一定的困难。随着文本长度的增加,模型的计算复杂度和存储需求也会显著增加。因此,对于超长文本的处理,Transformer 模型可能会面临性能下降或无法处理的问题。

3、缺乏实际推理机制

在实际的业务场景中,Transformer 模型通常是通过在大规模数据上进行预训练,然后在特定任务上进行微调来实现高性能,从而使得模型在实际推理过程中对于新领域或特定任务的适应性有限。因此,对于新领域或特定任务,我们往往需要进行额外的训练或调整,以提高模型的性能。

4、对训练数据的依赖性

Transformer 模型在预训练阶段需要大量的无标签数据进行训练,这使得对于资源受限或特定领域数据稀缺的情况下应用 Transformer 模型变得困难。此外,模型对于训练数据的质量和多样性也有一定的依赖性,不同质量和领域的数据可能会对模型的性能产生影响。

5、缺乏常识推理和推理能力

尽管 Transformer 模型在语言生成和理解任务上取得了显著进展,但其在常识推理和推理能力方面仍存在一定的局限性。模型在处理复杂推理、逻辑推断和抽象推理等任务时可能表现不佳,需要进一步的研究和改进。

尽管存在这些局限性,Transformer 模型仍然是当前最成功和最先进的自然语言处理模型之一,为许多 NLP 任务提供了强大的解决方案。未来的研究和发展努力将有助于克服这些局限性,并推进自然语言处理领域的进一步发展。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.2.1 什么是Prompt
    • L2.2.2 Prompt框架应用现状
    • L2.2.3 基于GPTAS的Prompt框架
    • L2.2.4 Prompt框架与Thought
    • L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
    • L2.3.1 流水线工程的概念
    • L2.3.2 流水线工程的优点
    • L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.1.1 Agent模型框架的设计理念
    • L3.1.2 Agent模型框架的核心组件
    • L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
    • L3.2.1 MetaGPT的基本概念
    • L3.2.2 MetaGPT的工作原理
    • L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
    • L3.3.1 ChatGLM的特点
    • L3.3.2 ChatGLM的开发环境
    • L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
    • L3.4.1 LLAMA的特点
    • L3.4.2 LLAMA的开发环境
    • L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1835064.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

java线程安全 ,死锁以及线程状态的介绍与使用

线程安全 1.什么时候发生:当多个线程访问同一个资源时,导致了数据有问题1.线程安全问题–>线程不安全的代码 public class MyTicket implements Runnable{//定义100张票int ticket 100;Overridepublic void run() {while(true){if (ticket>0){System.out.println(Thre…

【PL理论】(31) 类型系统:静态分析 (Static Analysis) | 静态类型系统 | 什么是类型?

💭 写在前面:本章我们将进入类型系统的讲解,回顾一下之前我们整理的 F- 语言,然后介绍一下静态分析和静态类型系统。讨论程序员该如何处理一些 bug,有没有完美的静态分析器。 目录 0x00 回顾:F- 语言 0x…

Part 4.4 树形动态规划

树形动态规划,即在树上进行的动态规划。 因为树的递归性质,树形动态规划一般都是递归求解的。 没有上司的舞会 题目描述 某大学有 n n n 个职员,编号为 1 … n 1\ldots n 1…n。 他们之间有从属关系,也就是说他们的关系就像…

Sectigo OV通配符SSL证书多少钱?

在网络安全领域,SSL数字证书起着至关重要的作用,尤其是在保护网站和用户信息方面。而Sectigo OV通配符证书是一种常用的数字证书之一,它能够为同一域名下的多个子域名提供保护,还能够通过企业验证来增强安全性。那么,对…

对input输入框的正则限制

一、0-100的整数 正则&#xff1a; const inputRules ref([{required: false,trigger: "blur",validator: (rule, value, callback) > {const reg /^[0-9]$/; // 只允许整数if ((0 < value && value < 100 && reg.test(value)) ||valu…

如何打开azw/azw3文件?两个步骤解决

要打开AZW或AZW3格式的电子书&#xff0c;遵循以下步骤&#xff0c;无论你是Windows、Mac用户&#xff0c;还是使用移动设备&#xff0c;都可以轻松阅读这些亚马逊Kindle专用格式的电子书&#xff1a; 第一步&#xff1a;安装NeatReader&#xff1a; 访问NeatReader的官方网站或…

MySQl基础入门⑯【操作视图】完结

上一边文章内容 表准备 CREATE TABLE Students (id INT AUTO_INCREMENT PRIMARY KEY,name VARCHAR(100),email VARCHAR(255),major VARCHAR(100),score int,phone_number VARCHAR(20),entry_year INT,salary DECIMAL(10, 2) );数据准备 INSERT INTO Students (id, name, ema…

谷歌可穿戴设备与生成式AI模型PH-LLM:打造个性化健康监测与指导的新纪元

随着移动和可穿戴设备的普及&#xff0c;它们为个人健康监测提供了前所未有的机会&#xff0c;通过收集步数、心率变异性、睡眠持续时间等连续、精细和纵向数据&#xff0c;帮助用户实时跟踪自己的健康状况。这些数据不仅可以用于简单的监测&#xff0c;还可以结合生成式人工智…

什么是模型轻量化?如何自动进行模型轻量化?

轻量化是已经是3D可视化业界人所共知的一个概念&#xff0c;虽然至今没有任何严谨的学术或者理论定义&#xff0c;但是这个概念已经几乎成为了行业的标准。它的大意是说&#xff0c;一个适用用于浏览器端渲染的模型数据&#xff0c;包括几何数据和行业数据&#xff0c;必然可以…

数据库、中台、报表平台之间的关系

我最近在接触报表平台和中台&#xff0c;发现他们跟我平常用的数据库不是一个东西。然后&#xff0c;我开始了摸索他们的过程&#xff0c;终于&#xff0c;我在理清他们的关系以后&#xff0c;简单写一个入门级的区分。 数据库&#xff1a; 定义&#xff1a; 数据库是被长期存…

MySQL 下载及安装教程

MySQL是一款开源的关系数据库管理系统&#xff0c;被广泛应用于各种应用程序和网站的数据管理中。以下是下载和安装MySQL的详细步骤。 1. 访问MySQL官方网站 首先&#xff0c;打开你的浏览器&#xff0c;访问MySQL官方网站&#xff1a; MySQL官方网站: https://www.mysql.com …

同三维T80004EHU 高清HDMI/USB编码器

1路HDMI或1路USB输入&#xff0c;带1路3.5音频输入&#xff0c;高清1080P60 来百度APP畅享高清图片 产品简介&#xff1a; 同三维T80004EHU 高清 HDMI/USB编码器是一款1路HDMI或1路USB高清编码器&#xff0c;。可将 HDMI 或USB视频源编码压缩成网络流&#xff0c;通过有线网络…

springboot 3.x 之 集成rabbitmq实现动态发送消息给不同的队列

背景 实际项目中遇到针对不同类型的消息&#xff0c;发送消息到不同的队列&#xff0c;而且队列可能还不存在&#xff0c;需要动态创建&#xff0c;于是写了如下代码&#xff0c;实践发现没啥问题&#xff0c;这里分享下。 环境 springboot 3.2 JDK 17 rabbitMQ模型介绍 图片…

银河麒麟系统升级openssh至9.7p1

银河麒麟系统升级openssh至9.7p1 升级过程建议参照链接 https://blog.csdn.net/zt19820204/article/details/137877652 当前环境 开始安装 # 1.查看当前服务器的openssh版本 ssh -V# 2.openssh下载地址 https://cdn.openbsd.org/pub/OpenBSD/OpenSSH/portable/# 3.升级opens…

想停,不可能!

转融通出借数量突然暴增&#xff0c;逼得证监会火速出来辟谣&#xff0c;这是坊间这几天传得&#xff08;最&#xff09;火的事。 事情呢&#xff0c;一句话概括就是光6月12号那一天&#xff0c;就新增了1.7亿股&#xff0c;吓得大家都说是转融通疯狂报复来了&#xff01;但官家…

Google 新 AI 为视频生成配乐和对白;Runway 发布 Gen-3 视频生成模型丨 RTE 开发者日报 Vol.226

开发者朋友们大家好&#xff1a; 这里是 「RTE 开发者日报」 &#xff0c;每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE&#xff08;Real-Time Engagement&#xff09; 领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「…

烟雾自动监测识别摄像机

烟雾自动监测识别摄像机是现代城市安全管理的关键装备&#xff0c;其在各类场所的应用日益广泛&#xff0c;尤其在大型建筑、工厂和公共设施中&#xff0c;其重要性更为突出。该类摄像机采用先进的传感技术&#xff0c;能够实时监测环境中的烟雾密度和变化。通过高灵敏度的传感…

批量创建文件夹 就是这么简单 一招创建1000+文件夹

批量创建文件夹 就是这么简单 一招创建1000文件夹 在工作中&#xff0c;或者生活中&#xff0c;我们经常要用到批量创建文件夹&#xff0c;并且根据不同的工作需求&#xff0c;要求是不一样的&#xff0c;比如有些人需要创建上千个不一样名称的文件夹&#xff0c;如果靠手动创…

开发淘宝在线扭蛋机小程序:关键点与实战技巧

引言 在上一篇文章中&#xff0c;我们介绍了开发淘宝在线扭蛋机小程序的基本步骤和前期准备。但在实际开发过程中&#xff0c;还有一些关键点和实战技巧需要特别注意。本文将为您详细阐述这些关键点和技巧。 一、关键点 用户体验&#xff1a; 简洁明了的界面设计&#xff0c…