时下改变AI的6大NLP语言模型

news2024/11/24 15:03:38

本文将深入研究大语言模型领域的最新进展,改变AI的6大NLP语言模型,每个模型能够引入的增强功能、以及潜在功能应用与限制。

图片

在快速发展的人工智能(AI)领域,自然语言处理(Natural Language Processing,NLP)已成为了研究人员和开发人员的关注焦点。作为该领域显著进步的标志,近年来业界出现了多种突破性的语言模型。它们推动了机器理解和生成能力的进行。在本文中,我们将深入研究大语言模型领域的最新进展,探索每个模型能够引入的增强功能、以及潜在功能应用。

下面,我们将从2018年具有开创性的BERT模型开始,向您介绍如下大语言模型:

  • Google的BERT(https://www.topbots.com/top-6-nlp-language-models-transforming-ai-in-2023/#bert)
  • OpenAI的GPT-3(https://www.topbots.com/top-6-nlp-language-models-transforming-ai-in-2023/#gpt3)
  • Google的LaMDA(https://www.topbots.com/top-6-nlp-language-models-transforming-ai-in-2023/#lamda)
  • Google的PaLM(https://www.topbots.com/top-6-nlp-language-models-transforming-ai-in-2023/#palm)
  • Meta AI的LLaMA(https://www.topbots.com/top-6-nlp-language-models-transforming-ai-in-2023/#llama)
  • OpenAI的GPT-4(https://www.topbots.com/top-6-nlp-language-models-transforming-ai-in-2023/#gpt4)

图片

Google的BERT

2018年,Google AI团队推出了源于Transformers的Bidirectional Encoder Representations(BERT)自然语言处理(NLP)模型。它在设计上允许模型考虑每个单词的左右与上下文。虽然其概念相对简单,但是BERT能够在11种NLP任务上获得最新的结果。其中包括问答、已命名实体识别、以及与一般语言理解相关的其他任务。该模型标志着NLP进入了预训练语言模型标准的新时代。

图片

目标

消除早期语言模型的局限性,特别是在预训练中表现出的单向性。这些限制了可用于预训练的架构选择,以及微调的方法。例如,OpenAI的GPT v1使用从左到右的架构,其中每个token(表征)只关注变形的自我关注层(self-attention)中的先前token。因此,这种设置对于语句级(sentence-level)任务来说是次优的,而对于token级任务则更加不利。毕竟在token级任务中,合并双方的上下文是非常重要的。

图片

如何处理

  • 该模型通过随机屏蔽一定比例的输入标记来训练深度双向模型,从而避免单词陷入间接“看到自己”的循环(https://www.reddit.com/r/MachineLearning/comments/9nfqxz/r_bert_pretraining_of_deep_bidirectional/)。
  • 此外,BERT通过构建一个简单的二元分类任务,来预训练句子关系模型,以预测句子B是否紧跟在句子A之后,从而使之能够更好地理解句子之间的关系。
  • 训练一个包含了大数据的大模型,其中包括33亿字的语料库、1024个隐藏的24种Transformer块、以及340M参数。

图片

结果

该技术提升了11项NLP任务,其中包括:

  • 获得了80.4%的GLUE分数,比之前的最佳成绩提高了7.6%。
  • 在SQuAD上获得93.2%的准确性,比人类的表现超出了2%。
  • 提供了一个预先训练的模型,不需要对特定的NLP任务进行任何实质性的架构修改。

在这里插入图片描述

在哪里可以了解更多关于这项研究的信息?

  • 研究论文:《BERT:用于语言理解的深度双向Transformer预训练》(https://arxiv.org/abs/1810.04805)
  • 博客文章:《开源BERT:Google AI带来的、最先进的自然语言处理预训练》(https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html)

图片

在哪里可以获得实现代码?

  • Google Research发布的官方Github存储库,其中包含了Tensorflow代码和BERT的预训练模型(https://github.com/google-research/bert)。
  • BERT的PyTorch实现也可以在GitHub上找到(https://github.com/codertimo/BERT-pytorch)。

图片

OpenAI的GPT-3

OpenAI团队引入了GPT-3,作为为每个语言任务提供标记数据集的替代方案。他们建议,扩展语言模型可以提高与任务无关的小样本(few-shot)性能。为了测试这一建议,他们训练了一个带有175B参数的自回归语言模型——GPT-3,并评估了它在二十多种NLP任务上的性能。在小样本学习、单样本学习、以及零样本学习下的评估表明,GPT-3取得了不俗的结果,它们甚至偶尔会超过微调模型,获得最新的结果。

图片

目标

当需要对每个新语言任务标记数据集时,可将其作为现有解决方案的替代。

图片

如何处理

  • 研究人员建议扩大语言模型,以提高与任务无关的小样本的表现。
  • GPT-3模型使用与GPT-2相同的模型和架构,包含了修改初始化、预规范化和可逆标记化。
  • 不过,与GPT-2相比,它在转换层中使用了交替的密集和本地带状稀疏专注模式(banded sparse attention patterns),这与Sparse Transformer(https://arxiv.org/abs/1904.10509)十分类似。

图片

在这里插入图片描述

结果

未经微调的GPT-3模型在许多NLP任务上都取得了令人满意的结果,甚至有时超过了针对特定任务进行微调的最先进模型:

  • 在CoQA基准测试中,零样本设置为81.5 F1,单样本设置为84.0 F1,小样本设置为85.0 F1,而微调SOTA的得分为90.7 F1。
  • 在TriviaQA的基准测试中,零样本的准确率为64.3%,单样本的准确率为68.0%,小样本的准确率为71.2%,比目前的水平(68%)高出了3.2%。
  • 在LAMBADA数据集上,零样本的准确率为76.2%,单样本的准确率为72.5%,小样本的准确率为86.4%,比目前的技术水平(68%)高出了18%。

在人类参与的评估中,由175b参数的GPT-3模型生成的新闻文章,很难与真实文章相区分开来。

图片

在哪里可以了解更多关于这项研究的信息?

研究论文:《小样本学习语言模型》

图片

从哪里可以获得实现代码?

虽然无法直接获得其代码,但是可以获取其被发布在GitHub上(https://github.com/openai/gpt-3)的一些统计数据集,以及来自GPT-3的无条件的、未过滤的2048个token的样本。

在这里插入图片描述

Google的LaMDA

对话应用语言模型(Language Models for Dialogue Applications,LaMDA)是通过对一组专门为对话设计的、基于Transformer的神经语言模型进行微调而创建的。这些模型最多有137B参数,并且经过训练可以使用外部的知识来源。LaMDA有三个关键性目标——质量、安全性和真实性(groundedness)。结果表明,微调可以缩小其与人类水平的质量差距,但在安全性和真实性方面,该模型的性能仍然低于人类水平。

作为ChatGPT的替代品,谷歌最近发布了由LaMDA提供支持的Bard(https://blog.google/technology/ai/bard-google-ai-search-updates/)。尽管Bard经常被贴上无聊的标签,但它可以被视为谷歌致力于优先考虑安全的证据。

图片

目标

该模型是为开放域的对话式应用构建的。其对话代理不但能够就任何主题展开对话,而且可以保证其响应是合理的、特定于上下文的、基于可靠来源的、以及合乎道德的。

图片

如何处理

基于Transformer(https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html)的LaMDA是Google Research于2017年发明并开源的神经网络架构。和其他BERT和GPT-3等大语言模型类似,LaMDA是在TB级的文本数据的基础上训练出来的。它能够了解单词之间的关系,进而预测接下来可能出现的单词。

然而,与大多数语言模型不同的是,LaMDA经历了对话训练,因此能够捕捉到,将开放式对话与其他语言形式区分开来的细微差别。

同时,该模型也通过微调来提高其反应的敏感性、安全性和特殊性。例如,虽然像“那很好(That’s nice)”和“我不知道(I don 't know)”之类的短语,在许多对话场景中可能有不同的含义,但是它们不太可能会导致后续有趣对话的发生。

通常,LaMDA生成器首先会生成几个候选的响应,然后根据它们的安全性、敏感性、特殊性、以及有趣程度,对其进行评分。其中,安全得分较低的响应会被过滤掉。最终,生成器会选择排名靠前的结果作为响应。

图片

图片

结果

  • 一系列定性评估证实,LaMDA可以参与各种主题的开放式对话。该模型的反应不但是明智的、具体的、有趣的,并且能够基于可靠的外部来源进行适当修改。
  • 尽管到目前为止该模型已取得了大幅进展,但是许多文字工作者也认识到该模型仍然存在许多局限性,可能导致产生不适当、甚至有害的响应内容。

图片

在哪里可以了解更多关于这项研究的信息?

  • 研究论文:《LaMDA:对话式应用语言模型》(https://arxiv.org/abs/2201.08239)

  • Google Research团队的博客文章:

    《LaMDA:迈向安全、真实、高质量的对话模型》(http://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html)

    《LaMDA:我们的突破性对话技术》(https://blog.google/technology/ai/lamda/)

    《通过语言理解世界》(https://blog.google/technology/ai/understanding-the-world-through-language/)

图片

在哪里可以获得实现代码?

我们可以在GitHub的链:https://github.com/conceptofmind/LaMDA-rlhf-pytorch处,找到用于LaMDA预训练架构的开源式PyTorch实现。

图片

Google的PaLM

Pathways Language Model(PaLM)是一个包含了540亿个参数的基于Transformer的语言模型。它使用Pathways在6144个TPU v4芯片上进行训练。这是一种新的机器学习系统,可在多个TPU Pod上进行高效训练。该模型展示了在小样本学习中扩展的好处,能够在数百种语言理解和生成基准上,产生最先进的结果。PaLM在多步推理任务上优于经过微调的先进模型,而且在BIG基准测试中的表现,也超过了人类的平均水平。

在这里插入图片描述

目标

提高大语言模型规模对于如何影响小样本学习的理解。

图片

如何处理

该模型的关键思想是使用Pathways系统,来扩展具有540亿个参数语言模型的训练:

  • 其开发团队在两个Cloud TPU v4 Pod中使用Pod级别的数据并行性,同时在每个Pod中使用到了标准数据和模型的并行性。
  • 他们能够将训练扩展到6144个TPU v4芯片中,这是迄今为止用于训练的最大基于TPU的系统配置。
  • 该模型实现了57.8%的硬件FLOP利用率的训练效率,这也是迄今为止大语言模型能够达到的最高训练效率。

PaLM模型的训练数据包括了英语、以及多语言数据集组合,其中不乏高质量的Web文档、书籍、维基百科、对话、以及GitHub代码。

图片

图片

结果

大量实验表明,随着团队扩展到更大的模型,该模型的性能会急剧上升。目前,PaLM 540B在多项困难任务中,都达到了突破性的性能。例如:

  • 语言理解和生成。被引入的模型可以在29种任务中的28个上超过了之前大模型的小样本性能。其中包括:问答任务、完形填空、句子完成、上下文阅读理解、常识推理、以及SuperGLUE(译者注:一种基于图卷积神经网络的特征匹配算法)等任务。PaLM在大基准任务上的表现,展示了它可以区分因果关系,并在适当的上下文中理解概念的组合。
  • 推理。通过8-shot(样本)的提示,PaLM解决了GSM8K中58%的问题。这是数千个具有挑战性的小学水平数学问题的基准。它超过了之前通过微调GPT-3 175B模型获得的55%的最高分。PaLM还展示了在需要多步逻辑推理、世界知识、以及深入语言理解等复杂组合的情况下,生成显式解释的能力。
  • 代码生成。PaLM的性能与经过微调的Codex 12B相当,同时它所使用的Python代码减少了50倍。这证实了大语言模型可以更有效地从其他编程语言、以及自然语言数据中转移学习。

图片

在哪里可以了解更多关于这项研究的信息?

  • 研究论文:《PaLM,使用路径扩展语言建模》(https://arxiv.org/abs/2204.02311)
  • 博客文章:《Pathways Language Model(PaLM):Google Research扩展到540亿个参数,以实现突破性性能》(https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html)

图片

在哪里可以获得实现代码?

PaLM研究论文中有关特定Transformer架构的非官方PyTorch实现,可在GitHub的链接–https://github.com/lucidrains/PaLM-pytorch处获得。不过,它不会扩展,仅出于教育目的而发布。

图片

Meta AI的LLaMA

Meta AI团队曾断言,在更多token上训练较小的模型,更容易针对特定产品的应用,进行重新训练和微调。因此,他们引入了LLaMA(Large Language Model Meta AI),这是一组具有7B到65B参数的基础语言模型。LLaMA 33B和65B在1.4万亿个token上进行了训练,而最小的模型LLaMA 7B则在13万亿个token上进行了训练。他们只使用公开可用的数据集,而不依赖于专有或受限的数据。该团队还实施了关键的架构增强和训练速度的优化技术。总之,LLaMA-3B的性能优于GPT-10,体积小了65倍以上,而LLaMA-65B则表现出与PaLM-540B相仿的性能。

图片

目标

  • 证明了不依赖于专有或受限的数据源,仅在可公开访问的数据集上,训练性能最佳模型的可行性。
  • 为研究界提供更小、性能更高的模型,从而使那些无法访问大量基础设施的人能够研究大语言模型。

图片

如何处理

为了训练LLaMA模型,研究人员只使用公开可用的数据,并与开源相兼容。同时,他们还对标准的Transformer架构进行了一些改进:

  • 采用GPT-3方法,通过规范化每个Transformer子层的输入,而不是归一化输出,来增强训练的稳定性。
  • 受到了PaLM模型的启发,研究人员用SwiGLU激活函数,取代了ReLU非线性,以提高性能。
  • 受到了Su等人(2021,https://arxiv.org/abs/2104.09864)的启发,他们消除了绝对位置的嵌入,而是在网络的每一层都加入了旋转位置的嵌入(rotary positional embeddings,RoPE)。

最后,Meta AI团队通过如下方式提高了模型的训练速度:

  • 避免存储注意力权重(storing attention weights)或计算屏蔽的键/查
  • 评分(computing masked key/query scores),而使用高效的因果多头注意力(multi-head attention implementation)的实现。在向后传递期间,使用检查点最大程度地减少了各种重新计算的激活。
  • 重叠性的激活计算和GPU之间通过网络进行通信。

图片

结果

尽管减小了3倍以上,但是LLaMA-13B仍然超过了GPT-10,而LLaMA-65B仍然相对PaLM-540B具有竞争力。

图片

在哪里可以了解更多关于这项研究的信息?

  • 研究论文:《LLaMA,开放高效的基础语言模型》(https://arxiv.org/abs/2302.13971)
  • 博客文章:《Meta AI的基础性65亿参数大语言模型–LLaMA的介绍》(https://ai.facebook.com/blog/large-language-model-llama-meta-ai/)

在这里插入图片描述

在哪里可以获得实现代码?

Meta AI在个案评估的基础上,为学术研究人员、政府、民间组织、学术机构、以及全球行业研究实验室相关的个人,提供了对于LLaMA的访问。您可以通过GitHub存储库的链接:https://github.com/facebookresearch/llama进行申请。

图片

OpenAI的GPT-4

GPT-4是一种大规模的多态模型,可以接受图像和文本的输入,并生成文本输出。出于竞争和安全的考虑,其相关模型架构和训练的具体细节被隐匿了。在性能方面,GPT-4在传统基准测试上已超越了以前的语言模型,并在用户意图理解和安全属性方面表现出了显著改进。同时,该模型还在各种考试中达到了人类水平的表现能力,例如,在模拟统一律师考试中,就取得了前10%的分数。

图片

目标

  • 开发一种可以接受图像和文本输入,并产生文本输出的大规模多态模型。
  • 开发在各种规模上可预测的基础设施和优化方法。

图片

如何处理

鉴于竞争格局和安全影响,OpenAI决定隐瞒有关架构、模型大小、硬件、训练计算、数据集构建、以及训练方法等详细信息,仅透露了:

  • GPT-4是基于Transformer的模型,经过了预先训练,可预测文档中的下一个token。
  • 它利用公开可用的数据和第三方许可的数据。
  • 该模型使用来自人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)进行微调。

图片

图片

结果

  • GPT-4在大多数专业和学术考试中,都达到了人类水平的表现能力,尤其是在模拟统一律师考试中,就取得了前10%的分数。
  • 在传统的NLP基准测试上,预先训练的基础GPT-4模型优于现有的语言模型和先前最先进的系统,且无需针对特定于基准的制作、或额外的训练协议。
  • 在遵循用户意图方面,GPT-4表现出了实质性的改进,在来自ChatGPT和OpenAI API的5214项提示中,它的响应比GPT-3.5的响应高出70.2%。
  • 与GPT-3.5相比,GPT-4的安全性得到了明显增强,特别是在响应违禁内容的请求时,明显下降了82%;而在对于医疗建议和自我伤害等敏感请求的策略上,则增加了29%。

图片

在哪里可以了解更多关于这项研究的信息?

  • 研究论文:《OpenAI的GPT-4技术报告》(https://arxiv.org/abs/2303.08774)
  • 博客文章:《OpenAI的GPT-4》(https://openai.com/research/gpt-4)

在这里插入图片描述

在哪里可以获得实现代码?

目前,仍无法获悉GPT-4的代码实现。

图片

大语言模型的实际应用

近年来最重要的AI研究突破,主要来自在庞大的数据集上训练的大语言模型。这些模型展示了卓越的性能,并将对诸如:客服、营销、电子商务、医疗保健、软件开发、以及新闻业等领域,带来彻底的改变。在大语言模型的广泛应用中,我们以GPT-4为例,其典型应用场景包括:

  • 以聊天机器人和虚拟助手为互动形式的自然语言理解和生成。
  • 不同语言之间的机器翻译。
  • 产生文章、报告或其他文本文档的摘要。
  • 可用于市场研究或社交媒体的情绪监控与分析。
  • 可用于营销、社交媒体或创意类写作的内容生成。
  • 可用于客户支持或知识库的问答系统。
  • 提供垃圾邮件筛选、主题分类或文档组织的文本分类。
  • 提供个性化的语言学习和辅导工具。
  • 支持代码生成和软件开发协助。
  • 协助医疗、法律和技术文件的分析和协助。
  • 适用于残障人士的功能辅助工具,例如文本与语音之间的相互转换。
  • 语音识别和转录服务。

在这里插入图片描述

风险和限制

当然,在现实生活中部署此类模型之前,我们需要考虑由此产生的相应风险和限制。有趣的是,如果您向GPT-4询问其风险和局限性,它可能会为您提供一长串相关考虑。在此基础上,我进行了按需筛选和添加,并为您列出了如下大语言模型的关键风险和限制:

  • 偏见和歧视:大语言模型需要从大量的文本数据中学习,而这些数据很可能包含了偏见和歧视性内容。因此,由此生成的输出,也可能会在无意中延续了刻板印象、冒犯性语言、以及基于性别、种族或宗教等因素的歧视。
  • 错误信息:大语言模型可能会生成事实上不正确、具有误导性或过时的内容。虽然这些模型在各种来源上已进行了训练,但它们可能并不总是提供最准确或最新的信息。发生这种情况,通常源于模型会优先考虑生成语法的正确性,或是看起来一致的输出,即使它们具有一定的误导性。
  • 缺乏理解:尽管这些模型似乎能够理解人类语言,但它们主要是通过识别训练数据中的模式和关联统计来实现的。它们本身对于自己生成的内容,并没有深刻的理解,这有时会导致无意义的、或不相关的输出。
  • 不当内容:虽然开发者努力减少大语言模型生成冒犯性、有害或不适当的内容,但是由于训练数据的性质、以及模型无法识别上下文或用户意图,因此此类情况仍有发生的可能。

图片

小结

综上所述,大语言模型能够生成类似人类的文本、自动执行的日常任务、以及在创意和分析过程中提供各项帮助。这使得它们已成为了如今快节奏的、技术驱动的世界中,不可或缺的工具。它们不但彻底改变了自然语言处理领域,并且在提高各类角色和行业的生产力方面,显示出了巨大的潜力。

当然,正如上文提到的,鉴于大模型的相关局限性与风险,以及可能出现的偏见、错误、甚至是恶意使用等问题也不容忽视。随着我们持续将AI驱动的技术,整合到日常生活中,必须在利用其能力和确保人类监管之间取得平衡。我们只有负责任地去谨慎采用生成式人工智能技术,才能为人类更美好的未来铺平道路。


如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2109229.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

6.1均值滤波

目录 实验原理 示例代码 运行结果 注意事项 总结 实验代码 运行结果 实验原理 https://zhuanlan.zhihu.com/p/76188487 在OpenCV中,cv::blur函数用于对图像进行均值滤波(Mean Filter),这是一种线性滤波技术,主…

科技信贷业务怎么寻找客户?

在科技信贷业务领域,寻找客户的痛点主要集中在以下几个方面: 1.风险评估难题:科技型企业尤其是初创企业,往往缺乏足够的历史数据和抵押物,这使得金融机构在评估其信用风险时面临较大挑战。由于科技企业的研发周期长、…

视频监控系统布局策略:EasyCVR视频汇聚平台构建高效、全面的安全防线

随着科技的飞速发展,视频监控系统已成为现代社会安全防范的重要组成部分,广泛应用于公共场所、企业园区、住宅小区等各个领域。一个科学合理的视频监控系统布局与选型策略,不仅能够显著提升安全监控的效率和效果,还能在关键时刻提…

我用 GPT 学占星

最近对占星赶兴趣,但是看到星盘中好多名词,不懂是什么意思?所以直接问 gpt , 发现回答的真的很棒🎉 ! 假如我想知道各个状态的具体是根据什么数据来显示的? 分分钟解决了我的问题; 我…

OpenFeign请求拦截器,注入配置属性类(@ConfigurationProperties),添加配置文件(yml)中的token到请求头

一、需求 OpenFeign请求拦截器,注入配置属性类(ConfigurationProperties),添加配置文件(yml)中的token到请求头 在使用Spring Boot结合OpenFeign进行微服务间调用时,需要在发起HTTP请求时添加一…

【Linux高级命令】1_进程和端口相关命令

文章目录 一、重启和关机的命令【了解】二、进程2.1 查看系统进程:ps 【重点】2.1.1 grep结合管道符去查找特定的进程信息 2.2 实时查看系统的进程信息:top2.3 关闭进程:kill【重点】 三、端口3.1 查看系统监听端口:netstat【重点…

Notepad++ 下载安装教程

目录 1.下教程 2.安装教程 1.下教程 Downloads | Notepad (notepad-plus-plus.org) 进入下载地址后选择最新版点击连接 点击链接后,向下滑动,下载适合自己电脑版本的安装包 这里大家没有梯子可能打不开页面,可以直接从本文开头下载。 2.安…

【vscode】vscode paste image插件设置

本文首发于 ❄️慕雪的寒舍 vscode编辑md文件的时候,如果想插入图片,自带的粘贴只会粘贴到当前目录下,也没有文件重命名,很不友好。 在扩展商店里面有mushan的Paste Image插件,相比自带的,更加友好一点。但…

物联网之ESP32控制舵机、通过网页设置舵机角度、Web服务、舵机原理、接线、Arduino、WiFi、Http

MENU 前言原理硬件电路设计软件程序设计LEDC输出PWM信号使用第三方库控制舵机网页控制舵机 前言 舵机在电子产品中非常常见,比如四足机器人、固定翼航模等都有应用,因此学习舵机对电子制作非常有意义。本文章使用Arguino的PWM对SG90舵机旋转角度控制。 原…

什么是Hash冲突?如何解决Hash冲突?

目录 一丶什么是Hash冲突 二丶如何解决Hash冲突 简介:Hash叫做‘散列表’,就是把任意长度输入,通过散列算法,变成固定长度输出,该输出结果是散列值。其实这种转换是一种压缩映射,散列表的空间通常小于输入…

深入解析EF Core并发控制:乐观与悲观策略的全面对比与实战应用

1. 前言 在使用EF Core开发应用程序时,并发控制是确保数据一致性的重要机制。EF Core 提供了两种主要的并发控制策略:乐观并发控制和悲观并发控制。它们各自有不同的应用场景和实现方式。本文将详细介绍这两种并发控制的区别、常见的应用场景&#xff0…

fastadmin 文件上传七牛云

1-安装七牛云官方SDK composer require qiniu/php-sdk 2-七牛云配置 <?phpnamespace app\common\controller;use Qiniu\Storage\BucketManager; use think\Config; use Qiniu\Auth; use Qiniu\Storage\UploadManager; use think\Controller; use think\Db;/*** 七牛基类*…

python操作kafka

一、参考阿里云的官方链接&#xff1a; 使用Python SDK接入Kafka收发消息_云消息队列 Kafka 版(Kafka)-阿里云帮助中心 二、安装python环境 三、添加python依赖库 pip install confluent-kafka1.9.2 四、新建一个setting.py文件配置信息 kafka_setting {sasl_plain_user…

爆改YOLOv8|利用SCConv改进yolov8-即轻量又涨点

1&#xff0c;本文介绍 SCConv&#xff08;空间和通道重构卷积&#xff09;是一种高效的卷积模块&#xff0c;旨在优化卷积神经网络&#xff08;CNN&#xff09;的性能&#xff0c;通过减少空间和通道的冗余来降低计算资源的消耗。该模块由两个核心组件构成&#xff1a; 空间重…

斯坦福UE4 C++课学习补充25:寻路EQS

文章目录 一、创建EQS二、修改行为树三、查询上下文 一、创建EQS 场景查询系统EQS&#xff1a;可用于收集场景相关的数据。然后该系统可以使用生成器&#xff0c;通过各种用户定义的测试就这些数据提问&#xff0c;返回符合所提问题类型的最佳项目Item。 EQS的一些使用范例包…

Unity【Colliders碰撞器】和【Rigibody刚体】的应用——小球反弹效果

目录 Collider 2D 定义&#xff1a; 类型&#xff1a; Rigidbody 2D 定义&#xff1a; 属性和行为&#xff1a; 运动控制&#xff1a; 碰撞检测&#xff1a; 结合使用 实用检测 延伸拓展 1、在Unity中优化Collider 2D和Rigidbody 2D的性能 2、Unity中Collider 2D…

香橙派列出附近所有的WiFi

使用 nmcli nmcli 是 NetworkManager 的命令行工具&#xff0c;它可以用来检索和管理网络连接。 nmcli device wifi list这个命令会列出所有周围的WiFi网络。

社区电商系统源码之卷轴模式:商业模式分析

随着互联网技术的发展&#xff0c;电商平台的竞争日益激烈&#xff0c;如何留住用户并提升用户粘性成为了各大电商平台关注的重点。卷轴模式作为一种新兴的用户参与和激励机制&#xff0c;在社区电商系统中得到了广泛的应用。本文将从技术角度探讨卷轴模式在社区电商系统中的实…

rust 命令行工具rsup管理前端npm依赖

学习了一年的 rust 了&#xff0c;但是不知道用来做些什么&#xff0c;也没能赋能到工作中&#xff0c;现在前端基建都已经开始全面进入 rust 领域了&#xff0c;rust 的前端生态是越来越好。但是自己奈何水平不够&#xff0c;想贡献点什么&#xff0c;无从下手。 遂想自己捣鼓…

Leetcode3256. 放三个车的价值之和最大 I

Every day a Leetcode 题目来源&#xff1a;3256. 放三个车的价值之和最大 I 解法1&#xff1a;贪心 从大到下排序矩阵所有值, 记为数组v。 转化此题&#xff1a;从r*c个数中选取3个数分别给到车1&#xff0c;车2&#xff0c;和车3&#xff0c;使得符合条件的三数之和最大。…