《深入浅出LLM基础篇》(四):主流大模型分类介绍

news2024/11/23 20:39:02

在这里插入图片描述

🎉AI学习星球推荐: GoAI的学习社区 知识星球是一个致力于提供《机器学习 | 深度学习 | CV | NLP | 大模型 | 多模态 | AIGC 》各个最新AI方向综述、论文等成体系的学习资料,配有全面而有深度的专栏内容,包括不限于 前沿论文解读、资料共享、行业最新动态以、实践教程、求职相关(简历撰写技巧、面经资料与心得)多方面综合学习平台,强烈推荐AI小白及AI爱好者学习,性价比非常高!加入星球➡️点击链接

专栏介绍: 本作者推出全新系列《深入浅出LLM》专栏,将分为基础篇、进阶篇、实战篇等,本文为基础篇具体章节如导图所示(导图为常见LLM问题,导图专栏后续更新!),将分别从各个大模型模型的概念、经典模型、创新点、微调、分布式训练、数据集、未来发展方向、RAG、Agent及项目实战等各种角度展开详细介绍,欢迎大家关注。

💙作者主页: GoAI |💚 公众号: GoAI的学习小屋 | 💛交流群: 704932595 |💜个人简介 : 掘金签约作者、百度飞桨PPDE、领航团团长、开源特训营导师、CSDN、阿里云社区人工智能领域博客专家、新星计划计算机视觉方向导师等,专注大数据与AI 知识分享。

《深入浅出LLM基础篇》目录

《深入浅出LLM基础篇》(一):大模型概念与发展
《深入浅出LLM基础篇》(二):大模型基础知识
《深入浅出LLM基础篇》(三):大模型结构分类
《深入浅出LLM基础篇》(四):主流大模型分类介绍(本篇)

《深入浅出LLM基础篇》(四):主流大模型分类介绍

导读:本篇为《深入浅出LLM基础篇》系列第四篇,《深入浅出LLM基础篇》(四):主流大模型分类介绍主流大模型分类,主要讨论各类模型结构组成、模型特点、数据规模等进行介绍,包括 ChtaGLM、LLAMA等 系列,最后对经典问题进行总结,方便大家交流学习。

4.1 主流大模型排名

在这里插入图片描述

4.2 经典大模型介绍

在这里插入图片描述

主流模型升级点:

在这里插入图片描述

4.2.1 LLAMA 系列
LLaMa

LLaMA采用causal decoder-only的transformer模型结构。与Transformer不同地方采用前置层归一化(Pre-normalization),并使用RMSNorm归一化函数(Normalizing Function)、激活函数更换为SwiGLU,并使用旋转位置嵌入(RoP),整体Transformer架构与GPT-2类似。
在这里插入图片描述

  • 在训练目标:LLaMA的训练目标是语言模型,即根据已有的上文去预测下一个词。 7B:consolidated.00.pth(13.16G) 13B:25G
  • layer normalization:使用RMSNorm均方根归一化函数。作用:为提升训练稳定性,LLaMa对每个Transformer的子层的输入进行归一化,而不是对输出进行归一化。用pre layer Norm(预训练层归一化),去除layer normalization中偏置项。
  • 激活函数:没有采用ReLU激活函数,而是采用了SwiGLU激活函数(结合SWISH 和 GLU 两种者的特点)。SwiGLU 主要是为了提升 Transformer 中 的 FFN(feed-forward network) 层的实现。FFN通常有两个权重矩阵,先将向量从维度d升维到中间维度4d,再从4d降维到d。而使用SwiGLU激活函数的FFN增加了一个权重矩阵,共有三个权重矩阵,为了保持参数量一致,中间维度采用了 2/3 x4d ,而不是4d。
  • 位置编码:去除了绝对位置编码,采用了旋转位置编码RoPE,可以兼顾相对位置和绝对位置的信息以提高模型的泛化能力。
    在这里插入图片描述

不同LLAMA结构参数:

在这里插入图片描述

Llama2
  • 官网:https://ai.meta.com/llama/
  • 论文名称:《Llama 2: Open Foundation and Fine-Tuned Chat Models》
  • 论文地址:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
  • 演示平台:https://llama2.ai/
  • Github 代码:https://github.com/facebookresearch/llama
  • 模型下载地址:https://ai.meta.com/resources/models-and-libraries/llama-downloads/

llama-2-open-foundation-and-fine-tuned-chat-models

介绍:此次 Meta 发布的 Llama 2 模型系列包含 70 亿、130 亿和 700 亿三种参数变体。此外还训练了 340亿参数变体,但并没有发布,只在技术报告中提到了。据介绍,相比于 Llama 1,Llama 2 的训练数据多了40%,上下文长度也翻倍,并采用了分组查询注意力机制。具体来说,Llama 2 预训练模型是在 2 万亿的 token 上训练的,精调Chat 模型是在 100 万人类标记数据上训练的。

  • 官网:https://ai.meta.com/llama/
  • 论文名称:《Llama 2: Open Foundation and Fine-Tuned Chat Models》
  • 论文地址:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
  • 演示平台:https://llama2.ai/
  • Github 代码:https://github.com/facebookresearch/llama
  • 模型下载地址:https://ai.meta.com/resources/models-and-libraries/llama-downloads/

Chinese-Llama-2-7b

介绍:自打 LLama-2 发布后就一直在等大佬们发布 LLama-2 的适配中文版,也是这几天蹲到了一版由 LinkSoul 发布的Chinese-Llama-2-7b,其共发布了一个常规版本和一个 4-bit 的量化版本,今天我们主要体验下 Llama-2的中文逻辑顺便看下其训练样本的样式,后续有机会把训练和微调跑起来。

  • 官网:https://ai.meta.com/llama/
  • 论文名称:《Llama 2: Open Foundation and Fine-Tuned Chat Models》
  • 论文地址:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
  • 演示平台:https://huggingface.co/spaces/LinkSoul/Chinese-Llama-2-7b
  • Github 代码:https://github.com/LinkSoul-AI/Chinese-Llama-2-7b
  • 模型下载地址:
    • https://huggingface.co/ziqingyang/chinese-llama-2-7b
    • https://huggingface.co/LinkSoul/Chinese-Llama-2-7b-4bit
llama2在llama1 上有什么升级: GQA+上下文窗口扩大
  1. 预训练语料从 1 Trillion tokens -> 2 Trillion tokens; context window 长度从 2048 -> 4096;
  2. 收集了 100k 人类标注数据进行 SFT+收集了 1M 人类偏好数据进行RLHF;
  3. 在 reasoning, coding, proficiency, and knowledge tests 上表现超越 MPT 和 Falcon;
  4. 使用 Group Query Attention,优势在于其将Query进行分组,组内共享KV,使得K和V的预测可以跨多个头共享,显著降低计算和内存需求,提升推理速度 。
4.2.2 ChatGLM 系列

ChatGLM支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。

在这里插入图片描述

训练目标ChatGLM-6B的训练任务是自回归文本填空。相比于causal decoder-only结构,采用prefix decoder-only结构的ChatGLM-6B存在一个劣势:训练效率低。causal decoder结构会在所有的token上计算损失,而prefix decoder只会在输出上计算损失,而不计算输入上的损失。

ChatGLM2-6B
  • 论文名称:ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
  • 论文地址:
  • Github 代码:https://github.com/THUDM/ChatGLM2-6B
  • 动机:在主要评估LLM模型中文能力的 C-Eval 榜单中,截至6月25日 ChatGLM2 模型以 71.1 的分数位居 Rank 0 ,ChatGLM2-6B 模型以 51.7 的分数位居 Rank 6,是榜单上排名最高的开源模型。
  • 介绍:ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
    • 更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。
    • 更长的上下文:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。
    • 更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
    • 更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。如果您发现我们的开源模型对您的业务有用,我们欢迎您对下一代模型 ChatGLM3 研发的捐赠。

**加粗样式**

ChatGLM3
  • 论文名称:ChatGLM3
  • Github 代码:https://github.com/THUDM/ChatGLM3
  • 模型地址:
    • huggingface:https://huggingface.co/THUDM/chatglm3-6b
    • modelscope:https://modelscope.cn/models/ZhipuAI/chatglm3-6b/summary
  • 动机:2023年10月26日,由中国计算机学会主办的2023中国计算机大会(CNCC)正式开幕,据了解,智谱AI于27日论坛上推出了全自研的第三代基座大模型ChatGLM3及相关系列产品,这也是智谱AI继推出千亿基座的对话模型ChatGLM和ChatGLM2之后的又一次重大突破。
  • 介绍:ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:
    • 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能
    • 更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
    • 更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用
4.2.3 Baichuan系列

Baichuan-13B是由百I川智能继Baichuan-7B之后开发的包含130亿参数的开源可商用的大规模语言模型,在权威的中文和英文,benchmark上均取得同尺寸最好的效果。Baichuan-13B有如下几个特点:

1.更大尺寸、更多数据:Baichuan-13B在Baichuan-7B的基础上进一步扩大参数量到130亿,并且在高质量的语料上训练了1.4万亿tokens,.超过LLaMA-13B40%,是当前开源13B尺寸下训练数据量最多的模型。支持中英双语,使用ALBi位置编码,上下文窗口长度为4096.
2.同时开源预训练和对齐模型:预训练模型是适用开发者的“基座”,而广大普通用户对有对话功能的对齐模型具有更强的需求。因此本次开源同时发布了对齐模型(Baichuan-13B-Chat),具有很强的对话能力,开箱即用,几行代码即可简单的部署。
3.更高效的推理:为了支持更广大用户的使用,本次同时开源了it8和it4的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛,可以部署在如Nvidia3090这样的消费级显卡上。
4.开源免费可商用:13B不仅对学术研究完全开放,开发者也仅需邮件申请并获得官方商用许可后,即可以免费商用。

Baichuan2
  • 介绍:Baichuan 2 是百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。本次发布包含有 7B、13B 的 Base 和 Chat 版本,并提供了 Chat 版本的 4bits 量化。
  • 论文名称:Baichuan 2: Open Large-scale Language Models
  • Github 代码:https://github.com/baichuan-inc/Baichuan2
  • 模型:https://huggingface.co/baichuan-inc
  • Baichuan-13B 大模型:
    • 官方微调过(指令对齐):https://huggingface.co/baichuan-inc/Baichuan-13B-Chat
    • 预训练大模型(未经过微调):https://huggingface.co/baichuan-inc/Baichuan-13B-Base
Baichuan-13B
  • baichuan-inc/Baichuan-13B:https://github.com/baichuan-inc/Baichuan-13B

  • Baichuan-13B 大模型:

    • 官方微调过(指令对齐):https://huggingface.co/baichuan-inc/Baichuan-13B-Chat
    • 预训练大模型(未经过微调):https://huggingface.co/baichuan-inc/Baichuan-13B-Base
  • 介绍:Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。Baichuan-13B 有如下几个特点:

    • 更大尺寸、更多数据:Baichuan-13B 在 Baichuan-7B 的基础上进一步扩大参数量到 130 亿,并且在高质量的语料上训练了 1.4 万亿 tokens,超过 LLaMA-13B 40%,是当前开源 13B 尺寸下训练数据量最多的模型。支持中英双语,使用 ALiBi 位置编码,上下文窗口长度为 4096。
    • 同时开源预训练和对齐模型:预训练模型是适用开发者的“基座”,而广大普通用户对有对话功能的对齐模型具有更强的需求。因此本次开源同时发布了对齐模型(Baichuan-13B-Chat),具有很强的对话能力,开箱即用,几行代码即可简单的部署。
    • 更高效的推理:为了支持更广大用户的使用,本次同时开源了 int8 和 int4 的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛,可以部署在如 Nvidia 3090 这样的消费级显卡上。
    • 开源免费可商用:Baichuan-13B 不仅对学术研究完全开放,开发者也仅需邮件申请并获得官方商用许可后,即可以免费商用。
baichuan-7B

介绍:由百川智能开发的一个开源可商用的大规模预训练语言模型。基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。

  • 论文名称:
  • 论文地址:
  • Github 代码: https://github.com/baichuan-inc/baichuan-7B
4.2.4 Qwen

自回归语言模型训练目标,训练时上下文长度为2048,推理8k。使用高达3万亿个token的数据进行预训练,数据涵盖多个类型、领域和任务。目前最大上下文长度32K,分词(Tokenization)采用的是基于BPE(Byte Pair Encoding)的方法.

Qwen采用了改进版的Transformer架构。具体来说,采用了最近开源的大型语言模型LLaMA的训
练方法,并做了如下改进:

  • embedding和输出映射不进行权重共享,从而达到以内存成本为代价换取获得更好的性能。
    使用了RoPE(旋转位置编码)进行位置编码。RoPE在当代大型语言模型中已被广泛采用,比如PLM和LLaMA。为了优先考虑模型性能并获得更高的精确度,使用FP32精确度的逆频率矩
    阵,而不是BF16或FP16.在大多数层中移除了BiaS,但在QKV层保留以提升模型的外推能力。
  • 使用了预归一化(Pre-Norm)和RMSNormi进行规范化。Pre-Norm是使用最广泛的方法,与
    post-normalization相比,它已被证明能提高训练的稳定性。最近的研究提出了提高训练稳定性
    的其他方法,官方表示会在模型的未来版本中进行探索。此外,还用RMSNo替代传统的层
    归一化技术。这一改变在不损害性能的同时提高了效率。
  • 使用了SwiGLU作为激活函数。它是Swsh和门控线性单元GLU的组合。初步实验表明,基于
    GLU的激活函数普遍优于其他基线选项,如GLU。按照以往研究中的常见做法,将前馈网络
    (FFN)的维度从隐藏大小的4倍降至隐藏大小的8/3。

在这里插入图片描述

首先,基于开源分词器tiktoken的cl100k基础词表进行初始化。然后,针对中文场景,向词表中增添常用的中文字和词,扩充词表规模。同时,参考GPT-3.5和LLaMA的实现,将数字切分成单个数字,如将"123"分词为"1"、“2”、“3”。最终词表大小约为152K。LLaMA词表大小为3.2W,Qwen为15W;对于一个中文字表示,LLaMA使用了两个token表示,而Qwen使用了一个token;

  1. 在推理中,更少的Token表示将有更少的推理次数,这意味着更大的词表可以压缩更多的内容,减少推理次数,文本的生成速度会更快;
  2. 词表增大以后,模型参数量也会增大,然而这对于巨大的模型参数来说不值得一提,推理速度的提升却尤为明显;

4.3 经典问题总结:

"Casual Decoder"和"Prefix Decoder"是两种不同的解码策略,主要应用于序列生成任务,如机器翻译、语音识别等。区别主要体现在处理输入数据和生成输出数据方式上。主要区别如下:

在这里插入图片描述

旋转位置编码:

旋转位置向量是用绝对位置编码来表征相对位置编码方法,针对使用 RoPE 位置编码的 LLM,将位置编码压缩,直接缩小位置索引,使得最大位置索引与预训练阶段的上下文窗口限制相匹配。

RoPE的设计思路: 通常会用向量内积来计算注意力系数,如果能够对q、k向量注入了位置信息,然后用更新的q、k向量做内积就会引入位置信息。

训练式的位置编码作用在token embedding上,而旋转位置编码RoPE作用在每个transformer层的self-attention块,在计算完Q/K之后,旋转位置编码作用在Q/K上,再计算attention score。旋转位置编码通过绝对编码的方式实现了相对位置编码,有良好的外推,可直接处理任意长的问题。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1670204.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Mysql数据存储格式分析

一、整体存储逻辑 1.1 Mysql数据存放位置 不同的存储引擎,对Mysql数据的存储是不同的。新建一个test数据库,里面有t1,t2和test5三张表,以Innodb和Myisam存储引擎为例: Innodb存储引擎: .frm文件:与表相…

如何查看MySQL binlog日志

1、查看MySQL是否开启binlog日志 SQL:show variables like ‘%log_bin%’; log_bin:on 是开启状态 若是OFF,则需要开启binlog日志。 开启方式:打开mysql配置文件my.cnf,在[mysqlId]下面增加 log-binmysql-bin 查看binlog日志 …

【客户案例】禅道软件助力长虹新网实现研发项目管理创新

四川长虹新网科技有限责任公司(以下简称长虹新网)深耕全球运营商市场二十多年,具备行业领先的软硬件研发、制造、全球化市场营销能力,持续服务国内外200多家主流电信及广电运营商、垂直行业服务商,与合作伙伴共同成长。…

快团团怎么做帮卖团长/供货大团长(如何从小白到优质团长)?

一名小白想要成长为快团团的优质团长,可以遵循以下步骤和策略: 了解平台与注册成为团长: 首先,熟悉快团团平台的操作流程和规则。快团团是一个基于微信的小程序,专注于社区团购业务。通过微信扫描团长资源二维码或在快…

NodeJS编写后端接口

技术栈 1.express:Express是一个简洁而灵活的node.js Web应用框架, 提供了一系列强大特性帮助你创建 各种 Web 应用,和丰富的 HTTP 工具,使用 Express 可以快速地搭建一个完整功能的网站。 2.mysql:用于操作MySQL数据库 3.bod…

pytorch常用内置loss函数与正则化技术(补充小细节)

文章目录 前言一、常用损失函数(后面用到了新的会一一补充)1.1 回归中的损失函数1.1.1 nn.MSELoss()示例1:向量-向量示例2:矩阵--矩阵(维度必须一致才行)1.2 分类中的损失函数1.2.1 二分类(1)nn.BCELoss --- 二分类交叉熵损失函数示例1:向量-向量示例2:矩阵--矩阵(维…

618买什么划算?618买啥好?618数码好物推荐,必买清单大放送!

随着一年一度的618购物狂欢节的临近,作为数码领域的资深爱好者,我感到有责任为大家推荐精心挑选的数码精品。无论你是追逐科技尖端的探索者,还是希望通过智能装备提升生活品质的时尚人士,这里的每一款产品都能与你的心灵产生共鸣。…

基于PHP开发的图片高清无损在线压缩源码系统 带完整源代码以及搭建教程

系统概述 高清无损在线压缩源码系统基于PHP语言开发,结合GD库和ImageMagick等图像处理工具,实现了对JPEG、PNG、GIF等多种图片格式的高清无损压缩。系统采用B/S架构,用户只需通过浏览器访问系统界面,即可实现图片的上传、压缩、预…

【小白入门篇6】常识|怎么计算模型需要的资源

01 背景 各个公司相继推出大模型, 有开源和不开源,有些技术爱好者也开始心痒难耐,萌生了私有本地模型,甚至有伙伴构建大模型并进行训练的想法, 大模型不仅比拼技术, 也是比拼爹(资源)的存在, 我个人在实战经历经常问自己,到底需要什么样配置才能跑起来这个模型, 完…

玩转cpp小项目星球3周年了!

公众号原创文章破600!玩转cpp小项目星球目前已运营3年,平时不怎么宣传,借此机会给大家分享一下这三年里面我沉淀了哪些内容。里面包含: 1.小项目:一些核心模块的拆解,例如:grpc、mutex、线程池等…

python数据分析——数据分类汇总与统计

数据分类汇总与统计 前言一、Groupby分类统计语法按列分组示例一示例二示例三 遍历各分组示例 使用字典和Series分组示例 使用函数分组示例 二、数据聚合groupby的聚合函数示例一示例二 逐列及多函数应用示例一示例二 返回不含行索引的聚合数据示例 三、一般性的“拆分-应用-合…

程序员日志之星际争霸

目录 传送门正文日志1、概要2、星际争霸编年史2.1、最早版本 Alpha2.2、早期版本 Early Beta2.3、测试版 Beta2.4、正式版 StarCraft2.5、母巢之战测试版 BroodWar Beta2.6、星际争霸-母巢之战 BroodWar2.7、地图编辑器(1.07及以上) StarEdit2.8、《星际…

掌握决策之道:层次分析法(AHP)的步骤、应用与局限性

目录 一、层次分析法简介 举一个小例子: 评价类问题可用打分解决,比如:小华高考结束后,在华科和武大两所学校之间做抉择。 评价类问题可用打分解决 二、层次分析法的步骤 (一)一道引出层次分析法的例…

造纸废水处理有哪些工艺设备

造纸废水处理是一个复杂的过程,因为造纸过程中产生的废水含有大量的有机物、悬浮物、色素、油脂、木质素、纤维素等污染物。为了有效处理这些废水,通常需要采用一系列的工艺设备。以下是一些常见的造纸废水处理工艺设备: 格栅:用于…

申贷时,银行级大数据自己能查到吗?

随着金融风控的不断健全,大数据作为辅助的风控工具正在被越来越多的银行和机构使用。在进行申贷时,银行通常会进行大数据查询,以便评估申请人的信用状况。那么,这些大数据自己能查到吗?接下来本文就为大家详细介绍一下&#xff0…

OKHTTP 3.12.0 以后版本 headers 中不可携带中文

今天遇到的报错: java.lang.llegalArgumentException: Unexpected char 0x957f at 0 in x-brand value: 电视堆栈 okhttp3.Headers.checkValue(Headers.java:272) okhttp3.Headers$Builder.add(Headers.java:312) okhttp3.Request$Builder.addHeader(Request.iava:…

超便捷备忘录共享方法 文字文件都可共享

在这个信息爆炸的时代,备忘录已成为我们生活中不可或缺的小助手。它记录着我们的工作计划、待办事项、灵感闪现,甚至是那些温馨的家庭琐事。然而,当我们在不同的设备间穿梭,如何在手机、电脑,甚至是不同品牌的手机之间…

selenium进行xhs图片爬虫:05xhs一个博主的全部文章链接获取

在今天的文章中,是需要进行保持登录状态的,如果没有登录状态。会导致xhs博主下的文章数量缺失。 我使用的仍然是selenium远程调试,也就是我之前说的selenium操作已经打开的浏览器。这块内容配置还是挺简单的,大家可以去试试。 今…

vuerouter声明式导航

声明式导航-跳转传参数 1.查询参数传参 语法:to /path?参数名值 2.对应页面组件接受传来的值 $router.query.参数名 2.动态路由传参 1.配置动态路由 2.配置导航连接 to/path/参数值 3.对应页面组件接收传递过来的值 #route.params.参数名 多个参数传递&…

GPT搜索引擎原型曝光!

OpenAI发布会前一天,员工集体发疯中……上演大型套娃行为艺术。 A:我为B的兴奋感到兴奋;B:我为C的兴奋感到兴奋……Z:我为这些升级感到兴奋 与此同时还有小动作不断,比如现在GPT-4的文字描述已不再是“最先…