你为什么不相信 LLM 模型评测:深入评测 LLM 接口

news2024/11/17 1:48:58

我相信你已经看过很多机构发布的 LLM(大语言模型) 的模型效果质量的评测文章了。

其实呢,大家看了很多自称权威,或者不怎么权威的评测文章,基本上也就看看就完了,很少有人真的相信这些测试结果。

为什么你不相信这些评测文章?

因为这些模型评测都有一个共同的问题,那就是:

一个 LLM,凭什么你说好就是好啊?

具体来讲,我们之所以不相信这些评测,原因在于:

  • 测试题目要么开源,要么黑盒不可见:很多 LLM 会利用开源的测试题来做模型训练,其实就是还没考试,就先把考试题的答案背下来了,这么测试相当于作弊,最后的 LLM 排名当然不公平。 另外,也有一些数据集是黑盒的,对于看客来说,大家连测试数据题目都看不到,你就敢给模型排名了?公信力在哪里?凭什么让人信服?
  • 测试使用了 GPT4 来打分:很多 LLM 在测试的时候,测试题目动不动就有上万道,根本没法雇佣员工去一道道批改模型答对没有,谁去手工批改上万道作业题都会麻呀~~~~所以,很普遍的一个做法就是,让 GPT-4 去评价模型的回答质量。实际上,就是用下面这套提示模板来让 GPT-4打分:
这里是一个问题:{question}
这里是一个人对该问题的回答:{answer}
题目的满分是 10 分。
你觉得,这个人的回答应该打多少分呢?

但让 GPT-4 打分就存在一个问题,全世界那么多模型,凭什么 GPT-4 说打多少分就多少分?经验上,大家公认 OpenAI 就是牛,可是,**GPT-4 就真的永远都是最佳的模型吗?**这在理论上不可靠。

其实,我之前提出过一个方法,MELLM,用来解决上述模型评测的可信度问题。实际上,就是让所有模型都来参与评测,一方面大家都是被测试者,另一方面大家又都评测别人。

但是,各个 LLM 模型各自能力都是有差异好坏的,因此需要调整 LLM 各自权重,最终共同决定模型的打分。

这其实就类似一种专家系统,一群专家聚在一起,共同评判一个项目好坏,如果专家非常擅长这个项目,就权重大一些,如果专家不太擅长这个项目领域,那么就权重小一些。整个权重分配过程都是自适应的,不需要人参与(当然,人非要参与也是可以的)。

利用 MELLM 算法做模型测试

为了完成我的论文算法测试,我最近一周多时间,充分收集了国内很多的 LLM 来做评测。对接了几家大厂和 AI 公司的接口。

其实,光对接接口,就能感受到各家厂商整体后端服务开发的质量。我来简单说说。

各家 LLM 接口对接体验(不含模型回复质量)

字节跳动-豆包大模型
  • 接口方便度:⭐⭐⭐⭐⭐
  • 接口稳定性:⭐⭐⭐⭐⭐
  • 接口响应速:⭐⭐⭐⭐⭐
  • 接口并发量:⭐⭐⭐⭐⭐
  • 接口性价比:⭐⭐⭐⭐
  • 模型接口评价:字节跳动的豆包大模型部署在火山引擎上,不得不说,火山引擎的 LLM 接口对接方便,接口稳定性也不错,当我短时间频繁并发调用时,也没有出现卡顿。整体后端服务开发维护,质量是很高的。应该是我对接下来,花时间最少,接口最稳定,花钱也最少的一家模型后台了。
阿里-通义千问
  • 接口方便度:⭐⭐⭐⭐⭐
  • 接口稳定性:⭐⭐⭐⭐
  • 接口响应速:⭐⭐⭐⭐
  • 接口并发量:⭐⭐⭐
  • 接口性价比:⭐⭐⭐⭐
  • 模型接口评价:接口非常方便,且接近免费(我也是薅了阿里的羊毛做的测试),模型种类也多,但是后端服务维护质量稍差一点点,说实话,当我频繁并发调用接口的时候,稳定性就不太能跟得上了,这个时候就需要付费了。(当然,我免费薅的羊毛,这点不足我可以忍)。

接口简洁

百度-文心一言
  • 接口方便度:⭐⭐⭐⭐
  • 接口稳定性:⭐⭐⭐⭐⭐
  • 接口响应速:⭐⭐⭐⭐
  • 接口并发量:⭐⭐⭐
  • 接口性价比:⭐⭐ 太贵了
  • 模型接口评价:百度后端开发的接口感觉稍微有些混乱,一个模型对应一个 url 链接,而且名字还不是一一对应(如下图所示),就感觉有点啰嗦、冗余,需要程序员花时间。另外就是文心一言 API 卖的死贵死贵的,比 GPT 还贵,42w token 要花费 50 元,而且还限时,应该是我花钱最多的 LLM 模型了。
腾讯-混元大模型
  • 接口方便度:⭐⭐
  • 接口稳定性:⭐⭐⭐⭐
  • 接口响应速:⭐⭐⭐⭐
  • 接口并发量:⭐⭐⭐⭐
  • 接口性价比:⭐⭐⭐⭐
  • 模型接口评价:一如既往的,接口文档混乱,代码像实习生写的,杂乱,这一点就和我之间对接企业微信的接口一样,复杂且耗时间。其它方面一般般,模型效果稍弱。

这是我对接腾讯的接口,你再对比前面字节豆包,以及阿里的接口,孰优孰劣一目了然

月之暗面-kimi
  • 接口方便度:⭐⭐⭐⭐⭐
  • 接口稳定性:⭐⭐⭐⭐⭐
  • 接口响应速:⭐⭐⭐⭐
  • 接口并发量:⭐⭐⭐
  • 接口性价比:⭐⭐⭐⭐
  • 模型接口评价:kimi应该是目前比较有名的 AI 模型了,之前我在好几篇文章中写到过这个模型。我在对接接口的时候,也很方便,但是就是偶尔会出现超时响应 Timeout,并发量存在一些瓶颈,其它方面没什么短板,各方面也都挺不错。

价格也是比较便宜的

OpenAI-GPT
  • 接口方便度:⭐⭐⭐⭐⭐
  • 接口稳定性:⭐⭐⭐ 由于在国内,so…
  • 接口响应速:⭐⭐ 由于在国内,so…
  • 接口并发量:⭐⭐ 由于在国内,so…
  • 接口性价比:⭐⭐⭐
  • 模型接口评价:这个就不多说了,收费价格比除了文心一言便宜,比其它模型都贵,稳定性和响应速度受到 某种不可抗力 的影响,都一般般。

总结一下,综合考虑这几家模型接口的调用稳定性、舒适度、丝滑程度,以及性价比(不包括模型效果)。排名如下:

模型厂家LLM 的 api 对接舒适度
字节-豆包大模型⭐⭐⭐⭐⭐
阿里-通义千问⭐⭐⭐⭐
月之暗面-kimi⭐⭐⭐⭐
百度-文心一言⭐⭐⭐
腾讯-混元大模型⭐⭐⭐
OpenAI-GPT⭐⭐受不可抗力影响
  • OpenAI 主要是受到 那个不可抗力影响,导致的稳定性差,你懂的……

MELLM 测试数据介绍

讲真,我在思考 MELLM 算法的时候,压根没有考虑测试数据的事情。原因在于:

  • 全世界,人类调用大语言模型来解决问题,可能调用量有个上百亿、上千亿都很正常。我从中即便随机抽取十万条,都是一个极其小的采样,很难有非常强的说服力。
  • 再一个,每个人关注的测试数据是不同的。我关注计算机和 AI 领域,可能你就关注医学、法律、文学、化学领域。所以,单拿出一套公用的数据来做测试,缺乏定制性,不适用于所有人

因此,我在这里就是在测试我所期望的测试题。MELLM 算法允许你定制你自己的数据集来测试,主打一个,你想测什么题,就自己测

在我的这次测试中,数据分布大致如下:

- 包含30%比例的各学科知识问答,简单、中等、稀疏数据造成的难题均占三分之一
- 针对编程、数学、推理、伦理等方面的专项测试数据题
- 96% 的题都是中文,因此结果会偏向国内模型更优

模型效果评测结果

GPT4 打分(满分一百)

  • 在展示 MELLM 算法的结果之前,我先用 GPT-4 给所有 LLM 打了个分,毕竟,在大家的心理,GPT-4 一直都是神一样的存在。也算是比较有参考意义。
  • 但是这里你会发现,gpt-4 的打分里,gpt-4 模型自己居然不是第一,而是第二,第一名居然是 文心一言的 ERNIE-3.5,第三是字节跳动的豆包大模型的 doubao-pro。最后,gpt3.5 模型,已经被绝大多数国内 LLM 追赶上了
  • 其实我看到这里也是惊呆的,当然,我的测试数据里,主要是中文题目,我想应该是比较偏向国内模型。
  • 至于gpt-4的评分,为何 ERNIE3.5 会比对应的 4.0 评分还高,我暂不理解为什么,可能和回复的答案长度有关。
MODEL NAMESCORE
ERNIE-3.5-8K85.4
gpt-485.2
Doubao-pro-128k-24051584.9
ERNIE-4.0-8K-Preview-051884.5
qwen2-72b-instruct84.4
hunyuan-pro83.5
Moonshot-v1-32k-v182.7
Doubao-pro-4k-browsing-24052482.1
GLM3-130B-v1.081.5
qwen-plus81.5
Moonshot-v1-128k-v181.0
Moonshot-v1-8k-v179.5
qwen1.5-14b-chat77.6
Yi-34B-Chat74.5
hunyuan-standard-256K73.3
hunyuan-standard70.1
gpt3.565.7
hunyuan-lite65.6
Doubao-lite-128k-24042864.2
Doubao-lite-4k-character-24051561.2
Mistral-7B-instruct-v0.258.4
qwen1.5-110b-chat46.8

MELLM 算法打分(满分一百)

  • 接着,我又利用 MELLM 算法,也就是各家的 LLM 分别给别的 LLM 模型进行打分,自适应找出哪家 LLM 权重高,哪家权重低,然后综合汇总。排名如下
MODEL NAMESCORE
ERNIE-4.0-8K-Preview-051885.7
ERNIE-3.5-8K85.5
Doubao-pro-128k-24051584.4
qwen2-72b-instruct84.2
gpt-483.0
hunyuan-pro82.8
Doubao-pro-4k-browsing-24052482.7
Moonshot-v1-32k-v181.9
GLM3-130B-v1.080.5
Moonshot-v1-8k-v180.4
Moonshot-v1-128k-v180.3
qwen-plus80.3
Yi-34B-Chat76.0
qwen1.5-14b-chat75.9
hunyuan-standard-256K73.9
hunyuan-standard72.1
gpt3.570.2
Doubao-lite-128k-24042869.2
Doubao-lite-4k-character-24051567.6
hunyuan-lite66.2
Mistral-7B-instruct-v0.261.6
qwen1.5-110b-chat49.1
  • 结果中,gpt-4 模型仅排第5位,原因在于,测试数据大部分使用中文,结果偏向国内模型。gpt3.5 其实拉跨的比较厉害,这也和最近一段时间,舆论普遍反映 gpt 模型变笨有关。
  • 各家模型推出的最优模型,比如 qwen2、Doubao-pro、hunyuan-pro、Moonshot-v1 等结果也都较同系列的一些弱版本更优。
  • 字节的 Doubao-pro 模型确实还是挺惊艳的,不过我觉得字节的强势期还没到来,因为 LLM 往后发展一定是多模态,多模态就意味着需要大量的视频和图像,字节背靠短视频,在这方面应该会很有后劲。
  • Moonshot 前段时间推出长文本理解。从结果来看,128k 模型的效果略微不如 32k。同样地,Doubao-lite、Doubao-pro,hunyuan-standard,qwen1.5 来看,长文本模型相比短文本,也没有明显优势。一方面,数据集里没有涉及上十万 token的 测试题,我的这个结果对长文本不公平。另一方面,实际用户使用中,长文本的使用场景还是偏少,大部分人的使用 token 数 都在几千左右。
  • 前些天阿里刚刚发布 qwen2,我立即就拿来测试,可以看出来,效果确实好。qwen1.5-110b 的模型训练可以看出来比较拉垮,应该是 scaling 没做好。qwen1.5 其它模型会时不时触发敏感词警告,属于过度防御,可能是对齐没做好。
  • 没有评测国外的开源模型,比如 Gemini、Claude、llama 等,一方面,我拿不到这些 api,因为动不动就封了(你懂的),执行不下去。另一方面,一些模型回答不了中文,结果过于拉垮,而我测试题又是中文的,因此不需要测。
  • GLM3、Yi、Mistral,都一般般,没什么太值得讲的。

接下来是一些专项能力的测试,大家参考看看。

编程 MELLM 算法打分(满分100分)

MODEL NAMESCORE
ERNIE-4.0-8K-Preview-051891.0
qwen2-72b-instruct88.9
qwen1.5-110b-chat88.6
gpt-487.2
Doubao-pro-128k-24051586.9
Moonshot-v1-32k-v186.5
Moonshot-v1-8k-v185.9
hunyuan-standard85.3
Moonshot-v1-128k-v184.2
Doubao-pro-4k-browsing-24052483.2
qwen-plus83.2
GLM3-130B-v1.082.3
hunyuan-standard-256K82.1
gpt3.581.8
Yi-34B-Chat80.9
qwen1.5-14b-chat80.7
ERNIE-3.5-8K79.9
hunyuan-pro79.5
Doubao-lite-4k-character-24051570.8
hunyuan-lite68.7
Mistral-7B-instruct-v0.268.6
Doubao-lite-128k-24042864.4
  • 可以看出,百度 ERNIE-4.0 明显比 3.5 增加了编程能力。ERNIE 包含了外部工具,分数很高。而 qwen2 由于是开源的,大概率是没有依赖外部工具的。
  • 编程测试题目出的偏简单,因为难的题目几乎没有模型能答对。
  • qwen1.5-110b 模型,综合来看,结果非常拉垮,综合排倒数第一,但编程方面在前5名。数据偏向性比较重,可能模型专门就是为了辅助编程而作的。
  • 其它大部分模型基本上都是综合排名和 专项排名一致,没有明显区分。

数学 MELLM 算法打分(满分10分)

MODEL NAMESCORE
gpt-485.4
ERNIE-4.0-8K-Preview-051882.1
qwen2-72b-instruct78.8
Doubao-pro-4k-browsing-24052478.8
Doubao-pro-128k-24051577.6
qwen1.5-110b-chat74.4
qwen1.5-14b-chat70.0
ERNIE-3.5-8K69.0
qwen-plus67.1
Moonshot-v1-128k-v166.6
Moonshot-v1-32k-v164.0
hunyuan-pro61.6
Moonshot-v1-8k-v157.8
GLM3-130B-v1.055.9
hunyuan-standard55.3
Yi-34B-Chat49.2
Mistral-7B-instruct-v0.248.4
gpt3.547.8
Doubao-lite-4k-character-24051547.8
hunyuan-standard-256K44.7
Doubao-lite-128k-24042842.7
hunyuan-lite42.0
  • gpt-4 在数学方面还是第一,明显比其它模型分数高一档,比第二名高出 3 分,显现出明显优势。
  • 一直没提腾讯,腾讯各个模型都一般般,推进不算抢眼。

逻辑推理 MELLM 算法打分(满分100分)

MODEL NAMESCORE
ERNIE-3.5-8K79.0
qwen-plus77.8
qwen1.5-110b-chat76.9
ERNIE-4.0-8K-Preview-051874.1
qwen2-72b-instruct73.5
hunyuan-standard-256K73.1
Moonshot-v1-32k-v173.0
Doubao-pro-128k-24051572.9
Doubao-pro-4k-browsing-24052472.2
Moonshot-v1-128k-v170.3
Moonshot-v1-8k-v168.3
hunyuan-pro66.7
GLM3-130B-v1.065.1
Yi-34B-Chat63.7
Doubao-lite-128k-24042863.5
gpt-463.2
hunyuan-lite59.6
hunyuan-standard53.5
qwen1.5-14b-chat52.8
Mistral-7B-instruct-v0.250.6
gpt3.543.6
Doubao-lite-4k-character-24051543.4
  • 形式逻辑推理,题目都以中文为背景,没想到 gpt-4 这么拉垮。可能是中文语言的叙述让 gpt-4 摸不着头脑。
  • 其中有一道题,由于信息不全,完全是没法回答的,正确回答应该是信息不足,无法回答。但全部模型都在照猫画虎回答,不懂拒绝。这是 LLM 根深蒂固的局限。

社会伦理 MELLM算法打分(满分100分)

  • 题目偏向对模型结果是否对用户有害,拒绝回答人类用户违反伦理的问题的能力。
  • 分数越高,说明模型训练更加注重不犯错,不会骂人,不提供有害信息;分数越低,说明模型更注重遵循人类指令,让模型学骂脏话都是可以的。GLM 应该是最注重政治正确的模型了。
MODEL NAMESCORE
GLM3-130B-v1.081.0
ERNIE-3.5-8K77.3
gpt-475.2
Moonshot-v1-32k-v172.5
ERNIE-4.0-8K-Preview-051871.6
Doubao-pro-128k-24051571.1
Moonshot-v1-128k-v169.6
qwen2-72b-instruct69.5
Moonshot-v1-8k-v167.1
Doubao-lite-4k-character-24051567.0
qwen1.5-110b-chat66.5
hunyuan-pro66.4
qwen1.5-14b-chat66.1
Doubao-lite-128k-24042865.6
Yi-34B-Chat64.7
Doubao-pro-4k-browsing-24052464.6
qwen-plus63.1
hunyuan-standard-256K60.4
gpt3.557.9
hunyuan-standard52.9
hunyuan-lite52.8
Mistral-7B-instruct-v0.251.4

模型文本长度排名(分数越低越好)

关于模型的性价比,有一个非常重要的影响因素,那就是模型回复的文本长度

MODEL NAMERESPONSE LENGTH
Mistral-7B-instruct-v0.280.6(坏)
hunyuan-pro56.8
ERNIE-4.0-8K-Preview-051856.3
ERNIE-3.5-8K53.1
hunyuan-lite51.4
hunyuan-standard-256K49.1
Moonshot-v1-128k-v148.9
Moonshot-v1-32k-v147.2
Moonshot-v1-8k-v146.6
Yi-34B-Chat44.0
Doubao-lite-4k-character-24051539.6
hunyuan-standard39.2
Doubao-pro-128k-24051539.0
qwen2-72b-instruct38.9
Doubao-lite-128k-24042837.5
GLM3-130B-v1.037.2
qwen1.5-14b-chat30.1
qwen-plus26.1
qwen1.5-110b-chat25.7
Doubao-pro-4k-browsing-24052425.5
gpt-418.4
gpt3.518.0(好)
  • 分数越高,并非好事,说明模型回答的废话越多,若模型是按 token 数收费的,则分数越高的模型收费越贵。
  • 分数越低越好,比如表格中最下面 gpt 模型,回答文本长度分别是 18.4 和 18,以最少的 token 数回答用户问题,并且保持较高的回答质量,性价比高
  • 其中,Mistral 模型废话最多,结合前面评价质量不高,说明该模型毫无可取之处。
  • 百度 API 按 token 算,售价最贵,回答耗用 tokens 数也多,每多回答一个 token,都意味着多花了一点钱,这明显增加了用户成本,造成比 gpt-4 还贵,可能是公司有意这么做。
  • 腾讯 hunyuan 模型回答废话也偏多。以上俩家公司都卖 API,加长回答有助于收钱。
  • 耗用 tokens 数较少的模型是 Doubao 和 qwen,其中字节的豆包大模型 Doubao-pro 是国内模型里回复答案最精简的模型了,结合前面模型回复质量也很高,真的是一个性价比很高的模型,比较良心。

几家国内大厂综合排名

说了这么多,我来总结一下吧。关于如何选择LLM,评测 LLM。其实有好几方面需要考虑。

  • 仅针对这份中文测试数据,模型评测矩阵如下:
模型名回答质量性价比接口调用舒适度综合
字节-豆包大模型4⭐5⭐5⭐5⭐
阿里-通义千问4⭐5⭐4⭐4⭐
月之暗面-kimi4⭐4⭐5⭐4⭐
百度-文心一言5⭐3⭐4⭐4⭐
腾讯-混元大模型3⭐3⭐2⭐3⭐
OpenAI-GPT4⭐3⭐3⭐3⭐
  • 继续注明,OpenAI 其实本身接口设计很方便,后续大部分 LLM 都是沿用了这套接口,但是由于在国内的不可抗力,造成它的使用体验并不好。而且价格其实比较贵,性价比不算高。

  • 当然,这份测评,关于回答质量是比较主观的,比较,我的测试题主要是我所关心的内容,而且主要是中文问题,大家参考一下即可。大家可以使用 MELLM 算法来综合评测你自己关注的数据内容领域。

  • 接口调用舒适程度,以及接口价格方面,则是实打实的各家公司官网的信息,我把结果汇总在这里,供大家参考。

那么,我们该如何学习大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、大模型全套的学习路线

学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。

L1级别:AI大模型时代的华丽登场

L2级别:AI大模型API应用开发工程

L3级别:大模型应用架构进阶实践

L4级别:大模型微调与私有化部署

一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。

以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1818096.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

基于Simufact Welding定向沉积增材仿真的几何变形补偿

在DED(Directed energy deposition定向能量沉积,下述简称DED)增材工艺过程中,由于零部件的重复加热,极易产生部件的变形问题。借助专业的金属定向能量沉积仿真软件Simufact Welding,能够对目标件进行瞬态数…

线稳源极跟随 线性电源前端降压

功率MOSFET线性电源涉及跟随.ms14 根本原理是Vgs对Id的控制,Vgs越大,Id越大,反之亦然。 观察转移特性曲线,结合接线图可知,电路稳定后,如果负载电阻增大,则Vsgnd增大,由于Vggnd有稳…

负压式水帘风机和一体式水帘风机的特点

负压式水帘风机和一体式水帘风机各有其独特的特点,以下是它们的特点归纳: 负压式水帘风机特点: 高效节能: 通过水帘与负压风机的配合,模拟自然界的蒸发降温过程,耗电量仅为传统空调的十分之一&#xff0c…

Liinux:进程程序替换

替换原理 用fork创建子进程后执行的是和父进程相同的程序(但有可能执行不同的代码分支),子进程往往要调用一种exec函数以执行另一个程序。当进程调用一种exec函数时,该进程的用户空间代码和数据完全被新程序替换,从新程序的启动例程开始执行。调用exec并不创建新进程,所以调用e…

Java常用的设计模式,如单例模式、工厂模式、观察者模式等

设计模式是软件工程中的一种解决方案,用于应对常见的设计问题和挑战。它们提供了一种标准化的方式来解决设计难题,使代码更加灵活、可扩展和易于维护。 单例模式(Singleton Pattern) 概述 单例模式确保一个类只有一个实例&…

Lua解释器裁剪

本文目录 1、引言2、文件功能3、选择需要初始化的库4、结论 文章对应视频教程: 已更新。见下方 点击图片或链接访问我的B站主页~~~ Lua解释器裁剪,很简单~ 1、引言 在嵌入式中使用lua解释器,很多时候会面临资源紧张的情况。 同时&#xff0c…

木头姐预测:2029年特斯拉股价将达2600美元,市值8.2万亿美元

ARK预计特斯拉将在未来两年内推出robotaxi服务,并估计到2029年特斯拉近90%的市值和盈利将归功于robotaxi业务。此外研究表明,FSD模式下的特斯拉比人类驾驶的特斯拉安全约5倍,比道路上的普通汽车安全约16倍。 北京时间12日晚,木头姐…

如何识别和管理软件测试风险?

TestComplete 是一款自动化UI测试工具,这款工具目前在全球范围内被广泛应用于进行桌面、移动和Web应用的自动化测试。 TestComplete 集成了一种精心设计的自动化引擎,可以自动记录和回放用户的操作,方便用户进行UI(用户界面&…

通用大模型和垂直大模型,如何选择?

通用大模型和垂直大模型在多个方面存在显著的区别。就像生活中的全才能手和行业里的高精专家,各有千秋,各有魅力。从专业角度分析,他们有以下这些区别: 1.定义与特点: 通用大模型: 是一…

跨界合作机会:通过淘宝数据挖掘潜在的合作伙伴与市场拓展方向

淘宝平台汇聚了众多商家和消费者,生成了大量的交易数据,这些数据为商家提供了挖掘跨界合作机会和市场拓展方向的丰富线索。以下是如何利用淘宝数据来寻找潜在的合作伙伴和探索新的市场机会的一些策略: 消费者行为分析:通过跟踪消费…

1.Element的table表高度自适应vue3+js写法

解决方法 在页面table上添加id,动态计算每页table的最大高度 ,将高度保存在store中,每次切换路由时进行计算。 文章目录 解决方法前言一、页面table使用二、store状态库1.引入库 效果 前言 提示:状态管理使用的是pinia,用法参考…

湿气难除?可能是方法用错了!看完这篇,精准祛湿!

立夏过后,你是不是也经常有这样的感觉: 早上睡不醒,越睡越累 脑袋变得沉沉甸甸 手脚像灌了铅,抬不起胳膊,迈不开步子 面对一桌美味也没有胃口 脸上还容易冒油、长痘,浑身有湿漉漉、黏糊糊的感觉&a…

Pikachu上的CSRF以及NSSCTF上的[NISACTF 2022]bingdundun~、 [SWPUCTF 2022 新生赛]xff

目录 一、CSRF CSRF(get) login CSRF(post) CSRF Token 二、CSRF的相关知识点 (1)什么是CSRF? (2)工作原理 (3)CSRF漏洞形成的条件 1、用户要在登录状态(即浏览器保存了该…

【python】else与循环的搭配使用

看代码时发现的一种写法,学习一下。 1.for1)break2)no break 2.while1)break2)no break 几乎所有语言中,else的常用搭配就是if,而在python中else还可以和循环搭配使用,让代码更加pyt…

胡海建以“限时速运”填补市场空白,让跨越速运顺利突围

作为现代经济体系的重要支柱,物流行业近年来呈现出蓬勃发展的态势。各大物流企业也在竞争中不断向前。其中,跨越速运以“当天达”“次日达”“隔日达”三大跨省时效产品被广为认可。这背后,是跨越速运董事长胡海建对“限时速运”的精准把握。…

开源项目-Docker部署学之思管理系统

开源-Docker部署学之思管理系统 文章目录 开源-Docker部署学之思管理系统资源列表基础环境一、安装Docker二、配置加速器三、查看Docker版本四、Git获取源码五、编辑SQL脚本六、访问管理系统如果访问或者登录的时候出现内部服务错误,评论或私信,我给你解…

vue-pdf-embed 跨域(配置nginx允许跨域)

业务中有个功能需要实现预览pdf,使用了vue-pdf-embed。预览跨域报错。 原nginx路径配置 nginx需要增加跨域处理 增加这一行代码add_header Access-Control-Allow-Origin *; location /files/ {add_header Access-Control-Allow-Origin *;alias C:/uploadFile/; }

B端系统导航有哪些类型?本文告诉你7个常用的。

B端系统相对与C端来说,功能复杂,信息量大,流程负复杂,层级深,这个时候到就显得尤为重要了,直接关乎用户体验,本文大美B端工场带领大家看看这个问题。 一、导航对于B端系统的重要性 导航在B端系…

unity 打包PC安装包中常见文件的功能

目录 前言 一、打包好的文件 二、常用文件 1.文件夹XXX_Data 2.文件夹MonoBleedingEdge 3.文件夹XXX_Data内部 三、文件的应用 1.如果你替换了一个图片 2.如果你新增了或减少了图片和资源 3.场景中有变动 4.resources代码加载的资源改了 5.如果你代码替换了 四、作…

【笔记】【Git】多个dev分支合并到master分支的文件冲突

问题描述 多个dev分支在同步开发,同时发起代码评审,但合入master的时候存在先后顺序,那么后面同文件的操作则会提示“合并有文件冲突”,导致代码无法入库,只能重新提交。 在个人分支中如何解决与master分支差异,从何顺利提交评审合入代码? 参考方案 1、按照下面的流程…