更难、更好、更快、更强:LLM Leaderboard v2 现已发布

news2024/11/18 19:52:02

评估和比较大语言模型 (LLMs) 是一项艰巨的任务。我们 RLHF 团队在一年前就意识到了这一点,当时他们试图复现和比较多个已发布模型的结果。这几乎是不可能完成的任务:论文或营销发布中的得分缺乏可复现的代码,有时令人怀疑,大多数情况下只是通过优化的提示或评估设置来尽量提升模型表现。因此,他们决定创建一个地方,在完全相同的设置 (同样的问题,按相同的顺序提问等) 下评估参考模型,从而收集完全可复现和可比较的结果;Open LLM Leaderboard 就这样的背景下发布啦!

在一系列高调的模型发布后,它成为了机器学习社区及更广泛领域内的广泛资源,过去 10 个月中有超过 200 万的独立访问者。

每月约有 30 万社区成员通过提交和讨论使用这个平台,通常是为了:

  • 寻找最先进的开源发布,因为排行榜提供了可复现的得分,区分了营销炒作与实际进展。

  • 评估他们的工作,无论是预训练还是微调,公开比较方法并与最佳现有模型进行比较,并获得公众认可。

然而,随着排行榜的成功以及模型性能的不断提升,也带来了挑战。经过一年多的激烈使用和大量社区反馈后,我们认为是时候进行升级了!因此,我们推出了 Open LLM Leaderboard v2!

https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard

(还是之前的链接)

以下是我们认为需要新排行榜的原因👇

为什么需要更具挑战性的排行榜

在过去的一年里,我们使用的基准测试已经被过度使用和饱和:

587a498ad77ac7aef08021d453efc74a.png
  1. 它们对模型来说变得太容易。例如,模型现在在 HellaSwag、MMLU 和 ARC 上达到了人类基准性能,这种现象被称为饱和。

  2. 一些较新的模型也表现出污染的迹象。这意味着这些模型可能在基准数据或与基准数据非常相似的数据上进行训练。因此,一些得分不再反映模型的一般性能,而是开始在某些评估数据集上过拟合,而不是反映所测试任务的一般性能。特别是 GSM8K 和 TruthfulQA,已包含在一些指令微调集中。

  3. 一些基准测试包含错误。例如,最近多个研究团队对 MMLU 进行了深入调查 (见MMLU-Redux和MMLU-Pro) ,发现了其响应中的错误并提出了新版本。另一个例子是 GSM8K 使用了特定的生成结束标记 (:) ,这不公平地降低了许多冗长模型的表现。

因此,我们决定完全更换 Open LLM Leaderboard v2 的评估!

  • MMLU-Reduxhttps://arxiv.org/abs/2406.04127

  • MMLU-Prohttps://arxiv.org/abs/2406.01574

重新选择我们的评估标准

我们开始寻找具有未污染、高质量数据集,使用可靠指标并测量模型关键能力的新基准测试。

我们决定涵盖以下一般任务:知识测试 (📚) 、短期和长期上下文推理 (💭) 、复杂数学能力以及与人类偏好高度相关的任务 (🤝) ,如指令遵循。

我们使用六个基准测试来涵盖这些任务。让我们简要介绍它们:

📚 MMLU-Pro (大规模多任务语言理解 - 专业版,论文) 。MMLU-Pro 是 MMLU 数据集的改进版本。MMLU 一直是多选知识数据集的参考。然而,最近的研究表明它既包含噪音 (一些问题无法回答) ,又太容易 (通过模型能力的进化和污染的增加) 。MMLU-Pro 向模型提供十个选择而不是四个,要求在更多问题上进行推理,并经过专家审查以减少噪音量。它比原版质量更高且更难。

  • 论文https://arxiv.org/abs/2406.01574

📚 GPQA (研究生级别的谷歌问答基准,论文) 。GPQA 是一个极其困难的知识数据集,其中问题由领域专家 (生物学、物理学、化学等领域的博士水平) 设计,使得外行人难以回答但专家相对容易。问题经过多轮验证,以确保难度和准确性。数据集也只能通过网关机制访问,这减少了污染风险。(这也是为什么我们不提供来自此数据集的纯文本示例的原因,正如论文作者要求的那样) 。

  • 论文https://arxiv.org/abs/2311.12022

💭 MuSR (多步软推理,论文) 。MuSR 是一个非常有趣的新数据集,由算法生成的复杂问题组成,长度约为 1000 字。问题包括谋杀之谜、物体放置问题或团队分配优化。为了解决这些问题,模型必须结合推理和非常长的上下文解析。很少有模型得分高于随机水平。

  • 论文https://arxiv.org/abs/2310.16049

🧮 MATH (数学启发式测试,5 级子集,论文) 。MATH 是一个由多个来源收集的高中级别竞赛问题的汇编,使用 Latex 一致地格式化方程和 Asymptote 格式化图形。生成的答案必须严格遵循特定的输出格式。我们只保留最难的问题。

  • 论文https://arxiv.org/abs/2103.03874

🤝 IFEval (指令遵循评估,论文) 。IFEval 是一个相当有趣的数据集,测试模型清晰遵循明确指令的能力,例如“包括关键词 x”或“使用格式 y”。模型被测试是否能够严格遵循格式指令,而不是实际生成的内容,从而可以使用严格的指标。

  • 论文https://arxiv.org/abs/2311.07911

🧮 🤝 BBH (大基准测试难题,论文) 。BBH 是 BigBench 数据集中 23 个具有挑战性的任务的子集,其中 1) 使用客观指标,2) 难度高,测量为语言模型未能超越人类基线,3) 包含足够多的样本以具有统计显著性。它们包含多步算术和算法推理 (理解布尔表达式、几何图形的 SVG 等) 、语言理解 (讽刺检测、名称消歧等) 和一些世界知识。BBH 的表现平均与人类偏好高度相关。我们期望这个数据集能够提供对特定能力的有趣见解,吸引人们的兴趣。

  • 论文https://arxiv.org/abs/2210.09261

a3b1060a7d73c2b3375f943b018a6017.png
https://open-llm-leaderboard-sample-viewer.hf.space/

为什么我们选择这些子集?

总的来说,我们的选择标准是:

  1. 评估质量:

  • 数据集的人工审查:MMLU-Pro 和 GPQA

  • 学术界和开源社区的广泛使用:BBH、IFEval、MATH

  1. 指标的可靠性和公平性:

  • 多选评估在模型之间通常是公平的。

  • 生成性评估应严格限制格式 (如 MATH) ,或使用非常明确的指标 (如 IFEval) 或后处理 (如 BBH) 来提取正确答案。

  1. 模型污染的一般缺失:

  • 网关机制:GPQA

  • “年轻”:MuSR、MMLU-Pro

  1. 测量社区感兴趣的模型技能:

  • 与人类偏好相关:BBH、IFEval

  • 评估我们感兴趣的特定能力:MATH、MuSR

选择新的基准测试并不是全部。我们还对排行榜进行了几项其他改进,将在下文进行简要介绍。

报告更公平的排名平均值:使用标准化分数

我们决定改变模型的最终得分。我们没有将每个基准输出得分相加,而是将这些得分标准化在随机基线 (0 分) 和最大可能得分 (100 分) 之间。然后我们平均所有标准化分数以获得最终平均得分并计算最终排名。例如,在一个每个问题包含两个选择的基准测试中,随机基线将获得 50 分 (满分 100 分) 。如果使用随机数生成器,您可能会在此评估中获得约 50 分。这意味着得分始终在 50 (如果基准不是对抗性的最低合理得分) 和 100 之间。因此,我们更改范围,使得 50 的原始分数为 0 的标准化分数。这对生成性评估如 IFEval 或 MATH 没有影响。

ccce989f007ef948f08d8c6c34dea2da.png

这个变化比看起来更重要,因为它可以看作是改变了每个基准在最终平均分中的权重。

在上图中,我们绘制了评估的平均得分,左侧为标准化得分,右侧为原始得分。如果看右侧,您会得出 MATH 5 级和 MMLU-Pro 是最难的基准 (原始平均值最低) 。然而,我们的两个最难评估实际上是 MATH 5 级和 GPQA,它们难得多 (博士水平的问题!) ——今天的大多数模型在它上面接近随机性能,因此在未标准化得分和标准化得分之间存在巨大差异,随机数基线得分为零分!

因此,这个变化也影响了整体模型排名。假设我们有两个非常难的评估,一个生成性和一个多选题,有两个选项样本。模型 A 在生成性评估中得 0 分,在多选题中得 52 分,模型 B 在生成性评估中得 10 分,在多选题中得 40 分。看原始平均值,您可能会得出模型 A 更好的结论,平均得分为 26,而模型 B 的平均得分为 25。然而,对于多选题基准,他们实际上都同样差 (!) :52 几乎是多选题评估中的随机分数,40 是不幸的随机分数。当取标准化得分时,A 得 0 分,而 B 得约 1 分。然而,在生成性评估中,模型 B 比 A 高出 10 分!如果我们取标准化平均值,B 的得分为 5,而 A 几乎为 0,因此排名非常不同。

更容易的可复现性:更新评估套件

一年前,我们选择使用 EleutherAI 的 Harness (lm-eval) 来进行我们的评估。它为多个任务提供了标准和稳定的实现。为了确保公平和可复现性,我们固定了所使用的版本。这使我们能够在完全相同的设置下比较所有模型,因为所有评估都是以完全相同的方式运行的,在相同的硬件上,使用相同的评估套件提交和参数。

然而随着lm-eval 的更新,某些任务或指标的实现发生了变化,这导致 1) 人们在更近期版本的 harness 上获得的评估结果和 2) 我们使用固定版本的结果之间出现了差异。

对于新版的 Open LLM Leaderboard,我们与 EleutherAI 团队 (尤其感谢Hailey Schoelkopf) 合作更新了 harness。

在功能方面,我们添加了对 delta 权重 (LoRA 微调/模型适配) 的支持、与排行榜兼容的日志系统以及高度请求的使用聊天模板进行评估。

在任务方面,我们花了几周时间手动检查所有实现和生成结果,修复了我们观察到的问题,如不一致的少样本样本、过于严格的句子结束标记等。我们为

排行榜任务实现创建了特定的配置文件,并正在添加一个测试套件,以确保评估结果随时间保持不变。

你可以在这里探索我们使用的可视化工具!

4f6508ab71d411939d03d9e48968c125.png
https://open-llm-leaderboard-generationvisualizer.hf.space/

这将使我们能够保持版本的更新,以便将来添加新功能!

关于排行榜后端和指标已经说了很多。现在,让我们转向模型和模型选择/提交。

维护者推荐介绍

在过去的一年里,我们评估了超过 7500 个模型,观察到许多模型并没有被社区广泛使用。

最常用的通常是新的基础预训练模型,通常使用大量计算资源构建,社区可以随后进行微调以适应其用例 (如 Meta 的 Llama3 或阿里巴巴的 Qwen2) 。一些高质量的聊天或指令模型找到了一个庞大的用户社区,如 Cohere 的 Command + R,并成为社区实验的强大起点。♥️

然而,其他模型的故事可能不同,即使在排行榜上排名靠前。一些模型是实验性的,令人着迷且令人印象深刻的超过 20 个连续模型创建步骤的结合,通过微调或合并。

然而,这些模型提出了一些挑战:

  • 当堆叠如此多的步骤时,很容易丢失精确的模型配方和历史记录,因为一些父模型可能被删除,先前步骤的微调信息可能消失等。

  • 然后模型可能会意外污染 😓
    去年发生了几次,从包含 TruthfulQA 或 GSM8K 信息的指令数据集微调的父模型派生的模型。

  • 模型可能会在基准测试上表现良好,但与其实际表现无关 🙃
    这可能发生在选择在相同基准上表现优异的模型进行合并时——这似乎选择性地提高了在这些基准上的表现,而与实际生活情况中的质量无关。(可能需要更多的研究) 。

为了在排行榜中突出高质量模型并优先评估最有用的模型,我们决定引入一个类别,称为“维护者推荐”⭐。

在这个列表中,您会发现来自各种来源的 LLM,由社区和 Hugging Face 团队手工挑选。我们包括像 Meta 或 Google 这样的公司,像 Cohere 或 Mistral 这样的初创公司,像 EleutherAI 或 NousResearch 这样的集体,以及许多其他用户发布的优秀模型。

该列表将根据社区建议和我们的观察不断发展,旨在尽可能包括最新的 SOTA LLM,并优先评估这些模型。

我们希望这也能使非机器学习用户更容易在排行榜上的众多模型中找到方向。

投票模型相关性

对于 Open LLM Leaderboard 的前一版本,评估通常以排队 (“先提交,先评估”) 的方式进行。随着用户有时一次提交许多 LLM 变体,Open LLM Leaderboard 在 Hugging Face 科学集群的空闲计算资源上运行,我们决定为提交的模型引入投票系统。社区将能够为模型投票,我们将优先运行票数最多的模型,将最受期待的模型排在优先队列的顶部。如果某个模型在集群满负荷时获得极高的票数,我们甚至可能考虑手动运行它而不是其他内部任务。

为避免垃圾投票,用户必须连接到他们的 Hugging Face 帐户才能投票,我们将保存投票记录。这个系统将帮助我们优先考虑社区热衷的模型。

最后,我们一直在努力改进和简化排行榜界面本身。

更好和更简单的界面

如果您是我们的常规用户之一,您可能已经注意到我们前端从上个月开始变得更快了。

这得益于 Gradio 团队的工作,尤其是Freddy Boulton,他开发了Leaderboard gradio 组件!它特别在客户端加载数据,使任何列选择或搜索几乎即时!你也可以在你自己的排行榜中重用它!

  • Freddy Boultonhttps://hf.co/freddyaboulton

  • Leaderboard gradio 组件https://hf.co/spaces/freddyaboulton/gradio_leaderboard

我们还决定将 FAQ 和关于标签移到它们自己的专用文档页面!

新排行榜,新结果!

我们将开始添加和评估“维护者推荐”部分的模型 (见上文) ,并期待社区向新版排行榜提交他们的新模型!!

排名结果如何?

看看 Open LLM Leaderboard 之前版本的前 10 名模型,并与这个更新版本进行比较,一些模型的排名相对稳定 (如下加粗) :Qwen-2-72B instruct,Meta 的 Llama3-70B instruct,01-ai 的 Yi-1.5-34B chat,Cohere 的 Command R + model,以及最后来自 AbacusAI 的 Smaug-72B。

我们对 Qwen2-72B-Instruct 特别印象深刻,它比其他模型高出一大步,平均得分为 43.02 (尤其得益于其在数学、长范围推理和知识方面的表现) 。

目前的第二名模型,Llama-3-70B-Instruct (平均得分 36.67) ,在 GPQA 上与其预训练版相比失去了 15 分 (4.92 vs 19.67) !这引发了一个问题,即 Meta 团队对这个模型进行的广泛指令微调是否影响了一些专家/研究生级别的知识。

当然,这个排名只是排行榜的开始,我们期望它在更多模型得到评估后会很快改变。你可以查看队列状态,看看哪些模型正在运行!

排名新排行榜排名
Qwen/Qwen2-72B-Instruct
2meta-llama/Meta-Llama-3-70B-Instruct
3microsoft/Phi-3-medium-4k-instruct
401-ai/Yi-1.5-34B-Chat
5CohereForAI/c4ai-command-r-plus
6abacusai/Smaug-72B-v0.1
7Qwen/Qwen1.5-110B
8Qwen/Qwen1.5-110B-Chat
9microsoft/Phi-3-small-128k-instruct
1001-ai/Yi-1.5-9B-Chat

以下是排名变化的细节:

b805194a7cea90a2383134731166a6ea.png

让我们以一些来自维护者团队的建议结束这些思考。

你应该关注哪些评估?

根据你的实际使用情况,你应该关注排行榜的各个方面。总体排名会告诉你哪个模型平均更好,但你可能对特定能力更感兴趣。

特别是,我们观察到我们的不同评估结果并不总是相互关联,如以下相关矩阵所示:

302e366617f75929cc6a5ba1926443b2.png

如你所见,MMLU-Pro 和 BBH 相关性较高。正如其他团队所指出的,这些基准测试也与人类偏好高度相关 (例如,它们倾向于与 LMSys 的聊天机器人竞技场中的人类判断一致) 。

我们的另一个基准,IFEval,针对聊天能力。它调查模型是否能够遵循精确指令。然而,这个基准使用的格式倾向于有利于聊天和指令微调的模型,预训练模型难以达到高性能。

e9a4ed509c7ad339c8de79aab2f68284.png

如果你特别关注模型知识而不是对齐或聊天能力,最相关的评估可能是 MMLU-Pro 和 GPQA。

让我们看看这些更新的基准测试上的表现与我们之前版本排行榜的评估相比如何。

1f9b917e08693636b2bbeff03441d663.png

如我们所见,MMLU-PRO (橙色) 和 GPQA (黄色) 得分与 Open LLM Leaderboard v1 的 MMLU 得分合理相关。然而,我们注意到得分总体上低得多,因为 GPQA 难得多。因此,模型有很大的改进空间——这是个好消息 :)

MATH-Lvl5 显然对专注于数学能力的人很有趣。这个基准测试的结果通常与 GSM8K 的表现相关,除了某些异常值,如下图所示。

4e8eb7f450c50c7c563d808b81be4d92.png

绿色点突出了在 GSM8K 上由于上述评估限制而之前得分为 0 但现在在新基准 MATH-Level5 上得分非常不错的模型。这些模型 (主要来自 01-ai) 在之前的格式中被严重惩罚。红色点显示了在 GSM8K 上得分高但在 MATH-Lvl5 上几乎为 0 的模型。

从我们目前对模型输出和行为的深入研究来看,基础模型的聊天版本有时在 MATH 上得分明显低于原始模型!这个观察似乎表明一些聊天微调程序可能会削弱数学能力 (根据我们的观察,使模型过于冗长) 。

MuSR,我们的最后一个评估,对长上下文模型特别有趣。我们观察到表现最好的模型具有 10K 及以上的上下文大小,并且它似乎足以特异性地区分长上下文推理。

让我们以对 Open LLM Leaderboard 未来的展望结束这篇文章!

接下来是什么?

就像 Open LLM Leaderboard 的第一个版本在过去一年推动了

模型开发的社区方法一样,我们希望新的版本 2 将成为开放和可复现模型评估的里程碑。

因为向后兼容和开放知识很重要,你仍然可以在Open LLM Leaderboard Archive找到所有之前的结果存档!

  • Open LLM Leaderboard Archivehttps://hf.co/open-llm-leaderboard-old

回顾 Open LLM Leaderboard 中评估的所有 7400 个模型的演变,我们可以注意到该领域的一些更广泛的趋势!例如,我们看到一个强烈的趋势,从更大的 (红点) 模型转向更小的 (黄点) 模型,同时提高性能。

bd434f6a80efb97db0476f11d5661582.png

这是该领域的好消息,因为较小的模型更容易嵌入,更节能/内存/计算效率更高,我们希望在新版本的排行榜中看到类似的进展模式。鉴于我们更难的基准,我们的起点要低得多 (黑点) ,所以让我们看看几个月后该领域会带我们到哪里 :)

如果你读到了这里,非常感谢。我们希望你会喜欢新版的 Open LLM Leaderboard。愿开源之风推动我们的 LLM 之船在深度学习的大洋中远航。 ⛵

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1867550.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

华为仓颉编程语言

目录 一、引言 二、仓颉编程语言概述 三、技术特征 四、应用场景 五、社区支持 六、结论与展望 一、引言 随着信息技术的快速发展,编程语言作为软件开发的核心工具,其重要性日益凸显。近年来,华为公司投入大量研发资源,成功…

数据结构-分析期末选择题考点(排序)

何似清歌倚桃李 一炉沈水醉红灯 契子 ✨ 上一期给大家提供了大概会考的题型给老铁们复习的大致思路 这一期还会是一样,我将整理一下排序的题型以及解题方法给你们 由于时间还很多,我就慢慢总结吧,一天一章的样子,明天总结串、后天…

【工具分享】ToolsFx

文章目录 ToolsFx介绍如何安装如何运行运行截图 ToolsFx介绍 基于kotlintornadoFx的跨平台密码学工具箱,包含编解码、编码转换、加解密、哈希、MAC、签名、大数运算、压缩、二维码功能、CTF等实用功能,支持插件。 如何安装 GitHub:https:/…

Java高级重点知识点-16-Map、JDK9新特性

文章目录 Map(java.util)JDK9优化集合 Map(java.util) Collection集合与Map集合的区别 Collection 中的集合,元素是孤立存在的,向集合中存储元素采用一个个元素的方式存储。 Map 中的集合,元素是成对存在的。Collection 中的集合称为单列集…

VS Code准备JAVA环境

背景 由于IntelliJ IDEA是需要激活码的,简单的java demo测试,除了可以直接使用命令行java和javac进行执行, 推荐使用VS code, 其功能比较强大,扩展插件也比丰富,对阅读和书写代码都是比较友好的. JDK环境准备 Linux JDK可以使用Open JDK 11. sudo apt-get install openjdk-1…

企业邮箱客服响应速度哪家好?

在选择企业邮箱的过程中,有一个点很容易被忽略,那就是企业邮箱客服的响应速度。试想,若是出现了邮件发件问题,而不能及时解决处理,可能会给企业带来很大的经济损失。今天就来对比下国内外三款企业邮箱的客服响应速度。…

【JavaScript】事件绑定

目录 一、什么是事件 二、常见事件 2.1 鼠标事件 2.2 键盘事件 2.3 表单事件 2.4 页面加载事件 三、浏览器弹窗三种方式 四、事件绑定函数方式 五、事件触发方式 一、什么是事件 事件就是行为动作。在HTML中事件可以是浏览器的行为,也可以是用户的行为。当这些行为发…

HTML5实现字母记忆配对游戏

HTML5实现字母记忆配对游戏 这个小游戏具有重新开始功能和难度设置功能。 “重新开始“按钮,点击它或完成一局游戏后,会自动开始新游戏。 下拉列表框,,难度设置,包含简单、中等和困难三个选项。 简单:8…

【5G射频基本架构】

平台框架 平台演进及搭配 5G NR频谱 NSA/SA/ENDC

鸿蒙星河NEXT学习笔记

1.1 字符串 // 变量的存储和修改(string number boolean) // 1. 变量存储 // 1.1 字符串 string 类型 // 注意点1:字符串需要用引号引起来(单引双引号)字符串 "字符串" // 注意点2:存储的时候&a…

云计算基础技术

云计算基础技术概览 计算类产品主要提供算力,支持业务运行,例如网站、办公软件、数据分析等计算能力,目前典型的产品主要是虚拟化和容器,在公有云上的云主机本质也是虚拟机。网络类产品主要满足资源的网络连通性和隔离&#xff0c…

ChatGPT国内中文版镜像网站整理(2024/6/25)

一、国内外模型大对比 1.交互式对话测评 用同样一个问题问文言一心3.5模型和ChatGPT3.5模型,以下是得到的两个结果: 文言一心3.5模型的回答 文言一心的这个回答显然非常愚蠢,虽然回答了很长一段话,但是“一斤土豆的重量和土豆的…

学习记录698@基带传输和频带传输基础

还是在学习计算机网络物理层时遇到这些知识点,这里简单的记录一下,主要都是通信专业的知识 基带传输 信源发出的原始信号叫做基带信号,基带信号分为模拟基带信号与数字基带信号。基带信号一般是低频成分,适合在具有低通特性的有…

基于weixin小程序智慧物业系统的设计

管理员账户功能包括:系统首页,个人中心,管理员管理,用户管理,员工管理,房屋管理,缴费管理,车位管理,报修管理 工作人员账号功能包括:系统首页,维修…

pycharm工具回退键调出

pycharm工具调出回退键。 View->Appearance->Toolbar,即可调出 调不出的可以使用快捷键:ctrlalt向左箭头 但是这个快捷键容易和电脑屏幕旋转冲突。可将电脑的快捷键关掉,即可。 ctrlalt向上箭头:将屏幕旋转到正常(横向&am…

记录一个80端口被占用导致软件打不开的问题

今天有个电脑,安装完我们的软件后,在浏览器上面打不开。但是我看虚拟机里面的配置啥的都很正常,我感觉不是软件挂了,应该是系统哪里的配置出了问题,导致软件打不开。 跟做软件的联系了,他让我直接访问虚拟机…

SiLM59xx系列SiLM5991SHCG-DG 带有主动保护和高 CMTI 的单通道隔离门极驱动芯片

SiLM59xx系列SiLM5991SHCG-DG是一款单通道隔离驱动器,提供12A源电流和12A灌电流。主动保护功能包括退饱和过流检测、UVLO、隔离故障报警和 4A 米勒钳位。输入侧电源的工作电压为3V至5.5V,输出侧电源的工作电压范围为13V至30V。所有电源电压引脚都有欠压锁…

小窗口大魔力,实况窗服务实时掌控重要信息变化

移动互联网时代,各种以用户为中心的App如春笋般涌现,满足了用户在购物、导航、娱乐等不同场景下的需求,不同程度上丰富了用户的日常生活。然而,随着App种类的激增,用户在享受多样化服务的同时,也面临着多任…

【面试干货】final、finalize 和 finally 的区别

【面试干货】final、finalize 和 finally 的区别 1、final1.1 修饰类1.2 修饰方法1.3 修饰变量 2、finally3、finalize4、总结 💖The Begin💖点点关注,收藏不迷路💖 在Java编程语言中,final、finalize和finally都是关键…

flask的基本使用1

【 一 】Flask介绍 python 界的web框架 -Django:大而全,使用率较高 :https://github.com/django/django -FastAPI:新项目选择使用它:https://github.com/tiangolo/fastapi -flask:公司一些小项目使用它&a…