独家采访WizardLM团队,详解WizardCoder/Math超越GPT4/ChatGPT的RLEIF算法

news2024/11/17 15:53:55

0d078514111c16f2597a61f50a06220a.gif

最新消息! 

在Meta AI发布Code Llama后仅两天的时间,WizardLM 团队基于该模型及其最新的对齐算法训练的WizardCoder-Python 34B V1.0在权威代码生成评测榜单HumanEval上即达到了惊人的 73.2% pass@1分值,同时超越了Claude-2(71.2%), 3月份版本的GPT-4(67.0%), 以及最新的ChatGPT-3.5 (72.5%)。与此同时,WizardCoder 团队也在Github和HuggingFace开源了该模型细节及权重: 

Github: https://github.com/nlpxucan/WizardLM/tree/main/WizardCoder

HuggingFace:https://huggingface.co/WizardLM/WizardCoder-Python-34B-V1.0

8349c885a4f6614e19ad80eae784be92.png

487df46600a5715134db6778c3f569a4.png

对于该全新代码模型,PaperWeekly团队将进行全面评测,并继续发布详细报道。今天,我们主要介绍Wizard家族的另一位重要成员WizardMath,及其数学能力超越ChatGPT-3.5的RLEIF算法。

dd7422afa79bedd08a2df3795e500494.png

前言

作为大语言模型(LLM)最重要也最具挑战性的能力之一,数学推理同时吸引了 AIGC 学术界与工业界广泛研究和关注。根据 OpenAI 相关技术报告,GPT-4 在 GSM8k 和 MATH 基准测试中取得了惊人的成绩,通过率分别高达 92% 和 42% 以上!

与此同时,在开源领域,由 Meta 主导发布的 Llama 2 更进一步提升了开源模型在这一领域的表现,达到了新的先进水平。 

然而,作者团队依然注意到,目前最佳开源模型 Llama 2 在 GSM8k 任务上的通过率也仅约为 56.8%,仍远低于包括 GPT-4、ChatGPT、Claude、PalM 2 等在内的一众闭源模型性能。由于数学推理对于计算过程准确度与逻辑推理能力的严苛标准,因此追赶和提升难度也更高。 

最近,在 WizardLM 团队相继开源WizardLM和WizardCoder模型后,又开源一款全新的数学推理大模型——WizardMath,它打破了闭源模型的垄断地位,显著超越 OpenAI 的 ChatGPT, Anthropic 的 Claude 以及 Google 的 PaLM 2 等 ,在参数只有 700 亿远不及他们情况之下,成为新时代的开源领军者。

86b0507c19e2baf344309455bd6da877.png

距离 WizardLM 宣布团队开源 WizardMath 仅 5 天,该模型即获得了大模型社区广泛的关注与认可。 

著名 CMU 科学家,MXNet,XGBooST,TVM 等著名项目创建者,以及 OctoML 首席科学家陈天奇也祝贺 WizardMath 在开源大模型数学领域的突破。

ba8eb5bf0369bb1c1303bfd42f97524b.png

甚至著名科学家 Yam Peleg 也详细解读并转发 WizardMath 的论文:

d60eaa172d3d36a29eb7dc8ccb8ec5b8.png

也有国外大佬 Charles H. Martin 转发了 WizardMath 论文:

04dba7de32ca44cae32a307523595d55.png

dca0d7f7269d217e715b50ad186bcede.png

RLEIF(Reinforced Evol-Instruct)方法

WizardMath 取得成功主要依靠的就是一种成为 RLEIF 的全新强化学习方法。受 WizardLM 的 Evol-instruct 和 OpenAI 过程监督的强化学习 PRMs 的启发,作者提出一个新范式:基于强化学习的指令进化方法 Reinforced Evol-Instruct,旨在增强 LLaMA-2 数学推理能力,如 Figure 1 表示,主要包含三步: 

1)SFT

2)训练指令奖励模型和过程奖励模型 

3)进行 Active Evol-Instruct 和 PPO 训练 

1. SFT:按照 InstructGPT,作者首先用生成的有监督指令对 Llama 2 进行微调,包含两部分:

  • 为了让模型解析每一步更简单,作者用 WizardLM 70B 模型对 GSM8k 和 MATH 原有训练集 15k 数据采用 few-shot 方式重新生成 15k 答案,从而使生成的答案具有 step-by-step 的格式,然后过滤掉不正确的问题答案; 

  • 为了增强指令数据多样性和模型泛化能力,从 WizardLM 的训练数据中随机采样了 1.5k 个开放域对话样本。将上面两部分数据合并一起作为最终的 SFT 数据,用于指令微调 Llama 2 模型。 

2. 数学指令进化范式:为了增加指令数据的复杂度和多样性,同时受该团队另外两篇工作 WizardLM 和 WizardCoder 指令进化的启发,从两个方面进行着手:

  • 向下进化,让问题变得更简单,比如将高难度问题进化为较低难度的问题或者产生一个不同话题的全新的更简单的指令;

  • 向上进化,遵从 WizardLM 论文中原先指令进化方法,通过添加更多约束条件,问题具体化,和增加推理三个维度来深化并产生新的更困难的问题。 

3. 受 InstructGPT 和 PRMs 启发,训练两个奖励模型来预测生成的指令质量和相应答案的每一步正确性:

  • 指令奖励模型 IRM:从定义,精确度和完整性三个方面判断进化的指令的质量。对于每一个初始指令,使用 Wizard-E 和 ChatGPT 分别生成 2 到 4 个进化指令,然后使用 Wizard-E 模型对这些生成的指令进行质量排序,从而得到 IRM 的训练数据;

  • 基于过程监督的奖励模型 PRM:使用 ChatGPT 对所有问题的解决步骤评判是否正确;

  • PPO 训练:对 GSM8k 和 MATH 数据总共进化 8 轮,最终数据能从 15k 增长到 96k。对每个指令使用 IRM 模型对指令的质量进行打分(rI),同时对答案使用PRM模型对每个解题步骤进行评判是否正确(rA),最后用 r = rI  x  rA 公式作为模型最终奖励,从而用于训练 PPO。

aea8519f0030e29b098deb282b262ab6.png

实验

3.1 测试集

作者主要在两个常用数学推理基准测试集(GSM8k 和 MATH)上评估 WizardMath。GSM8k 数据集包含大约 7500 个训练数据和 1319 个测试数据,主要是小学水平的数学问题,每个问题都由基本的算术运算(加、减、乘、除)组成,一般需要 2 到 8 个步骤来解决。

MATH 数据集收集来自著名数学竞赛问题(如 AMC 10、AMC 12 和 AIME)。它包含 7500 个训练数据和 5000 个具有挑战性的测试数据,涉及七个学术领域:预备代数、代数、数论、计数与概率论、几何学、中级代数和微积分。这些问题被分为五个难度等级,' 1 '表示相对较低的难度等级,' 5 '表示最高的难度等级。

3.2 训练和测试Prompt

训练 WizardMath 的 Prompt 格式来自 Alpaca,如下:

cf13fe4e01127da3e9486c4cea2f6098.png

测试时采用了 CoT 方式进行评估,如下:

1644243cc71cb871e2ad75b1c5754ae4.png

9cf8f832497e4887aee42d177c46a466.png

结果

作者与大量基线模型进行性能比较,包括闭源 LLM 模型:OpenAI 的 GPT-3、GPT-3.5、ChatGPT、GPT-4,谷歌的 PaLM、PaLM 2、Minerva,Anthropic 的 Claude Instant、Claude 1.3、Claude 2, DeepMind 的 Chinchilla;开源 LLM 模型:Llama 1、Llama 2、GAL、GPT-J、GPT-Neo、Vicuna、MPT、Falcon、Baichuan、ChatGLM、Qwen 和 RFT 等。

4.1 与闭源模型比较

表 1 中,在 GSM8k 上,WizardMath 显著超过一些闭源 LLM 模型,包括 OpenAI 的 ChatGPT,Google 的 PaLM 1 和 PaLM 2,Anthropic 的 Claude Instant;同时 WizardMath 目前在所有模型上排名前五,如图二所示。在 MATH 数据集上 WizardMath 70B 超越了 Text-davinci-002.

详细结果如下:

1. WizardMath 13B 在 GSM8k 上优于 PaLM 1 540B(63.9 vs 56.5)、Minerva 540B(63.9 vs 58.8)和 GPT-3.5(63.9 vs 57.1)。同时,它在 MATH 上超越了 PaLM 1 540B(14.0 vs. 8.8)、GPT-3 175B(14.0 vs. 5.2);

2. WizardMath 70B 在 GSM8k 上超过 Claude Instant(81.6 vs 80.9)、ChatGPT(81.6 vs 80.8)和 PaLM 2(81.6 vs 80.7)。同时,WizardMath 70B 在 MATH 上超过了 Text-davinci-002(22.7 比 19.1)。

4.2 与开源模型比较

表 1 中所示的结果表明,WizardMath 70B 在 GSM8k 和 MATH 基准测试中大幅度超过所有开源模型。详细结果如下:

1. WizardMath 7B 超越了大多数参数量从 7B 到 40B 之间的开源模型,包括 MPT、Falcon、Baichuan-chat、Vicuna v1.3、ChatGLM 2、Qwen、Llama 1 和 Llama 2;

2. WizardMath 13B 在 GSM8k 上明显优于 Llama 1 65B(63.9 vs. 50.9)和 Llama 2 70B(63.9 vs. 56.8)。同时它在 MATH 上的表现远远优于 Llama 1 65B(14.0 vs. 10.6)和 Llama 2 70B(14.0 vs. 13.5);

3. WizardMath 70B 在 GSM8k 上超越了 Llama 2 70B(81.6  vs. 56.8),提升 24.8 个点。同时它在数学方面也比 Llama 2 70B(22.7 比 13.5)高出 9.2个点。

1efdb7be2198bc333fe97d1344818ec2.png

WizardLM 团队在开源 LLM 研发上表现异常耀眼,多项世界公认大模型基准能力测评中比肩闭源巨头(OpenAI 和 Anthropic), 这到底是怎么样的一个团队,对于大模型技术有怎样的理解和认知,外界多有好奇。PaperWeekly 有幸采访到该团队负责人,来自微软的大模型专家徐粲来深入解读 WizardLM 背后的技术原理。

54507c367ffff2e9b27bd49bee35bc0e.png

徐粲,微软高级应用科学家,之前曾在微软小冰和微软亚研院从事聊天机器人系统研究。在 NeurIPS、ICLR、ACL、EMNLP、CVPR、ICCV 等国际学术顶级会议发表论文 30 余篇,谷歌总引用 1300+ 次。

| PaperWeekly:最近我们注意到 WizardMath 在国际认可的数学基准 Gsm8k 上面超过了 ChatGPT 3.5,使用了一种称为 RLEIF 的强化学习方法,它跟 OpenAI 提出的 RLHF 方法有什么优势? 

徐粲:OpenAI 的 RLHF 和 Claude 的 RLAIF(AI 代替人类作为反馈器)是强化学习做对齐的代表性工作,这两种方法我们亲测都可以显著提升预训练后的 LLM 在各种场景的表现,但这两种强化学习方法只在 response 空间进行探索获得使得 reward 最大的策略。而我们提出的 RLEIF 不仅在 response 空间做搜索,也在指令(instruction)空间进行搜索,这样可以保证相比于 RLHF 能够探索到更优的学习策略。 

| PaperWeekly:从 Evol-Instuct 到新近的 RLEIF,和大部分做大模型团队强调参数量和数据相比,似乎你们更看重独创性的方法?大部分人似乎觉得大模型只要参数量足够多,数据质量足够好就可以取得很好的效果。 

徐粲:我本人比较认可竞争优势来自于差异化的认知,参数量越大,数据质量越高肯定大模型训练效果越好,我并不反对这种观点,但是这种观点几乎为所有人所知晓,这一点无法构成优势。从一开始做 WizardLM 我就想的比较清楚,如果沿用 OpenAI PreTrain-SFT-RLHF 的框架,作为后来追赶者几乎是鲜有机会胜出的,唯有自创流派自建技术体系才能形成差异化优势,我从现实场景中 ChatGPT 处理较复杂指令吃力这一点入手,提出“指令进化论”,像生物进化历程一样,逐步由简单指令进化成复杂指令进行大模型训练,这种方式可以在不增加参数量的情况下大幅提升模型能力。后来我们在指令近进化的框架下又完成了强化学习版本 RLEIF,进一步提升了指令进化的效力。后续我们还会围绕指令进化的方方面面做出改进,做出更强的指令进化术使得单位参数量拥有更强的模型性能。 

| PaperWeekly:看样子未来我们可以看到更多版本的 Evol-Instruct。Evol-Instruct 最早版本使用了 ChatGPT 的输出作为回复,而在最新的 WizardMath 中已经几乎不再使用 ChatGPT,这种变化的出发点是什么? 

徐粲:首先,ChatGPT 输出的质量并不是绝对的高,尤其是数学等较为高精尖的领域,ChatGPT 的回复质量其实并不十分理想。随着我们 Wizard 家族模型水平逐步提升,通过解码出大量回复加质量筛选的模式我们自己模型输出的回复质量慢慢地已经达到 ChatGPT 水平,慢慢地实现了对 ChatGPT 回复的替代。我们还用少量的 ChatGPT 来帮助我们进行指令进化,之如前面所说,“指令进化”是我们技术体系的核心,我们慢慢地也在构建自己的指令进化器即 RLEIF 里面的 Wizard-E 模型,它在指令进化上面可以做的比 ChatGPT 还要好。

| PaperWeekly:早在网上爆料出 GPT4 采用多专家的 MOE 架构之前,似乎 WizardLM 就已经在考虑多专家发展路线,很早推出了 WizardCoder 这一专注 coding 的模型,到最近专注数学的 WizardMath 模型,这块你们当时具体的考虑是怎么样的? 

徐粲:我不太喜欢 MOE 的架构,因为它会带来参数量的增大,让模型变笨重。我们很早就注意到大模型的后预训练中有一种“技能墙”效应的存在。和人类学习知识过程不太一样,大模型学习不同门类的技能不一定会相互促进,反而有时候会相互伤害。多专家+MOE 的架构是一种有效的破除技能墙的方法,除了低效外。在最开始 Wizard 家族做多专家时候我们确实是奔着组 MOE 去的,但我们也在积极寻找更好的办法来破除技能墙,如果能够找到或许就不会再像 GPT4一 样采取 MOE 架构。 

| PaperWeekly:现在 Wizard 大模型家族已经有三位成员,后续还会有第四位成员吗? 

徐粲:目前有第四位成员的计划,但是还没有完全想清楚它的特点,前三位成员定位清晰且已经都有很大的 scope。 

| PaperWeekly:WizardMath 如果专注于数学领域,似乎它的 scope 并不是很大? 

徐粲:数学本身就是极其庞大深奥且足够底层的学科。目前 WizardMath 主要能力还是在解决给定的数学问题上面,如何自己发现问题,提出假设,进行推导验证这一整套数学研究的流程 WizardMath 后续还会深入的学习,另外 WizardMath,我期望它的未来长期规划是在多个理工科学科(如物理,化学,生物等)上面达到博士的水平,将来会逐步成长为综合性科学推理计算平台,来帮助人类理解、处理各种深奥复杂的科学事务。当 WizardMath 在各个学科都有了一定积累后,我们会让它去参加一些国内外的大学或者职业考试来检验自己的学习成果。 

| PaperWeekly:我看你提到一个推理计算平台的概念,似乎你并不认为它仅仅是一个模型。

徐粲:对,我认为对于大模型来说,模型即应用即平台。太多人将模型,应用,平台三者割裂来看,其实我对 Wizard 家族规划成多专家除了做 MOE 的考虑外,更多是希望其往不同的应用平台能力去发展,比如 WizardLM 其擅长语言能力,除了基础的语言功底外,可以慢慢地发展出情感计算,虚拟人格,虚拟世界,成为综合性语言平台,任何跟语言能力强相关的应用它都可以完成。类似地,WizardMath 除了帮你解题外,还可以帮你做理财,做数据分析,任何你可以用语言定义的应用需求,本质上大语言模型都可以直接帮你处理完成,这种情况下大语言模型本身就一个应用平台旗舰。WizardCoder 后续除了基本的帮你写代码外,我对他后续期望和规划是逐步成长为完全的自动 agent 可以在互联网世界自由行动。 

| PaperWeekly:我们看到,现在基于全新的Code Llama训练的WizardCoder-Python 34B模型,在代码生成领域同时击败了GPT-4与Claude-2,那么拥有最强代码模型后,你们接下来的计划是什么呢?

徐粲:是的,WizardCoder在最权威的HumanEval上超越了GPT-4的3月份版本,但是我们依然需要认识到GPT-4的强大,它其实一直在进化,根据我们的评测,最新的GPT-4已经达到了82%的HumanEval pass@1,这就是我们接下来的关键目标之一。而对于Claude,我们也是同样的态度。 

| PaperWeekly:WizardLM是开源LLM顶级对齐团队,OpenAI刚刚成立了Superalignment团队来加大对齐领域的投入,你们后续在预训练方面有没有打算或者投入? 

徐粲:我们其实已经开始在预训练技术上展开研究,但是我们的方法会和主流预训练方法不太一样。因为我们的后预训练阶段基于指令进化论构建,我们在预训练阶段也会引入相应的指令进化方法,一边对预训练语料进行进化形变,一边进行预训练,以期望彻底打开指令进化的所有空间和可能性。 

| PaperWeekly:目前来看,你们主要在语言大模型发力,未来在多模态大模型领域,你们后续会进行研发投入吗? 

徐粲:我们在多模态领域有计划,目前也在结合语言大模型和视觉大模型做一些新形态的应用尝试,很快我们会发布我们的 beta 测试版。 

| PaperWeekly:目前开源 LLM 进展飞速,你们作为开源 LLM 非常活跃的一分子。怎么看待像 OpenAI,Claude 等闭源 LLM 和开源 LLM 的未来? 

徐粲:完全预测闭源开源 LLM 的未来是非常难的一件事情。只能说从目前情况来看,Stability AI 的 FreeWilly2 在 mmlu 上面超过了 ChatGPT3.5,SqlCoder 在 text2sql 上超过了 ChatGPT 3.5,我们 WizardMath 也在 Gsm8k 上面击败了 ChatGPT3.5,Wizardcoder在HumanEval上击败了最新的ChatGPT-3.5和3月版本的GPT-4, 越来越多的开源 LLM 在慢慢突破闭源 LLM 的门槛 ChatGPT3.5,如果后续闭源 LLM 不能通过进一步提升参数规模来获得显著性能提升,将会感受到来自开源 LLM 社区更大的压力。

更多阅读

2df56356301f9ea2c078d93d67101885.png

b63b34d24f35620e828de3505e8abd4f.png

1a0a4ce0e07c3a69cad4f48ac6dfba4b.png

0fcd06d4bbaf3295c1d444b12df94655.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

d785ea02472081429f2deaa1e4d6cb59.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

c0861d1663442e58c6560b623b281074.jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/934747.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python-下载数据-制作全球地震散点图:JSON格式

查看JSON数据 import json# 探索数据的结构 filename eq_data_1_day_m1.geojson with open(filename) as f:all_eq_data json.load(f)readable_file readable_eq_data.json with open(readable_file, w) as f:json.dump(all_eq_data, f, indent4)json.load() 将数据转换为P…

ExpressLRS开源之接收机固件编译烧录步骤

ExpressLRS开源之接收机固件编译烧录步骤 1. 源由2. 编译步骤2.1 推荐源代码指定方案2.2 方法一:ELRS Configurator步骤一:下载ELRS Configurator工具步骤二:安装ELRS Configurator工具步骤三:使用ELRS Configurator工具进行配置步…

快速启动 - 一键启动您的目标应用

《快速启动》- 快速管理,便捷控制 作为一款管理类应用,《快速启动》拥有简洁且实用的分类功能。它能将你的应用归类,让你轻松找到所需。无论是工具类、娱乐类还是社交类应用,《快速启动》都能让你的手机变得井井有条。 与普通管理…

学霸有特权

导读 同时保有两种截然相反的观念还能正常行事,这是第一流智慧的标志 -- 菲茨杰拉德 周末愉快。 1. 有一次在西湖公园门口等着接娃,凑上来一位并不面善的大汉,低声问我:兄弟你有没兴趣了解下"我主"。 我:可以…

LeetCode--HOT100题(43)

目录 题目描述:98. 验证二叉搜索树(中等)题目接口解题思路代码 PS: 题目描述:98. 验证二叉搜索树(中等) 给你一个二叉树的根节点 root ,判断其是否是一个有效的二叉搜索树。 有效 二叉搜索树定…

软件测评单位需要哪些资质?

软件测评资质 在进行软件测试或其他项目检测需要选择软件测评公司时,我们常常会把该公司有无资质认证考虑进去。那么软件测评公司在为企业出软件测试报告过程中,需要有什么资质才是合法合规的? 软件测评公司需要什么资质? 国内第…

用 PHP 和 JavaScript 显示地球卫星照片

向日葵 8 号气象卫星是日本宇宙航空研究开发机构设计制造的向日葵系列卫星之一,重约 3500 公斤,设计寿命 15 年以上。该卫星于 2014 年 10 月 7 日由 H2A 火箭搭载发射成功,主要用于监测暴雨云团、台风动向以及持续喷发活动的火山等防灾领域。…

基于微信小程序中小学生练字书法家校联合系统

对于一些学生和书法爱好者来说,需要时时刻刻了解,自己及自己所喜欢的书法的相关信息,书法作业的相关事宜,学生作业的相关信息,比如查询教学进度、书法作业等这样才能更好的推动我国的书法事业发展,为此今后有必要对书法…

【硬件设计】硬件学习笔记一--元器件的介绍与选型

硬件学习笔记一--元器件的选型 一、电阻1.1 电阻的分类1.2 电阻的选型 二、电容2.1 陶瓷电容2.2 钽电容2.3 铝电解电容2.4 电容选型 三、电感3.1 定义与介绍3.2 电感的分类3.3 电感的参数 四、磁珠4.1 磁珠的介绍4.2 磁珠的参数 五、二极管5.1 定义5.2 稳压管5.3 肖特基二极管5…

心法利器[97] | 判断问题是否真的需要大模型来解决

心法利器 本栏目主要和大家一起讨论近期自己学习的心得和体会,与大家一起成长。具体介绍:仓颉专项:飞机大炮我都会,利器心法我还有。 2022年新一版的文章合集已经发布,累计已经60w字了,获取方式看这里&…

微服务系统面经之二: 以秒杀系统为例

16 微服务与集群部署 16.1 一个微服务一般会采用集群部署吗? 对于一个微服务是否采用集群部署,这完全取决于具体的业务需求和系统规模。如果一个微服务的访问压力较大,或者需要提供高可用性,那么采用集群部署是一种常见的策略。…

社区供稿 | FaceChain 开源项目原理解析

一、背景说明 各类 AI 写真软件由于其精准的个人形象精美的生成效果引爆了朋友圈传播,证件照满足了用户刚需,古装照等风格照满足了用户“美照”的需求。 FaceChain 是一个可以用来打造个人数字形象的深度学习模型工具。用户仅需要提供最低三张照片即可获…

十五、pikachu之CSRF

文章目录 一、CSRF概述二、CSRF实战2.1 CSRF(get)2.2 CSRF之token 一、CSRF概述 Cross-site request forgery 简称为“CSRF”,在CSRF的攻击场景中攻击者会伪造一个请求(这个请求一般是一个链接),然后欺骗目标用户进行点击&#xf…

对标 GPT-4?科大讯飞刘庆峰:华为GPU技术能力已与英伟达持平

科大讯飞创始人、董事长刘庆峰在亚布力中国企业家论坛第十九届夏季高峰会上透露了关于自家大模型进展的一些新内容。刘庆峰认为,中国在人工智能领域的算法并没有问题,但是算力方面似乎一直被英伟达所限制。 以往的“百模大战”中,训练大型模型…

mysql下载

网址 MySQL :: Download MySQL Community Serverhttps://dev.mysql.com/downloads/mysql/ 2、选择MSI进行安装 3、这里我选择离线安装 4、这里我选择直接下载 5、等待下载安装即可

改变癌症诊断!梯度提升方法可准确预测癌症患者的生存风险!

一、引言 癌症是全球范围内一种严重的疾病,对人类健康造成了巨大的威胁。据世界卫生组织统计,癌症是全球首要死因之一,每年有数百万人因癌症而丧生 [1]。然而,早期的癌症诊断和治疗非常重要,可以显著提高患者的存活率和…

滑动窗口系列4-Leetcode322题零钱兑换-限制张数-暴力递归到动态规划再到滑动窗口

这个题目是Leecode322的变种,322原题如下: 我们这里的变化是把硬币变成可以重复的,并且只有coins数组中给出的这么多的金币,也就是说有数量限制: package dataStructure.leecode.practice;import java.util.Arrays; i…

ChatGPT癌症治疗“困难重重”,真假混讲难辨真假,准确有待提高

近年来,人工智能在医疗领域的应用逐渐增多,其中自然语言处理模型如ChatGPT在提供医疗建议和信息方面引起了广泛关注。然而,最新的研究表明,尽管ChatGPT在许多领域取得了成功,但它在癌症治疗方案上的准确性仍有待提高。…

华为OD机试 - 完全数计算(Java 2023 B卷 100分)

目录 专栏导读一、题目描述二、输入描述三、输出描述四、Java算法源码五、效果展示六、纵览全局 华为OD机试 2023B卷题库疯狂收录中,刷题点这里 专栏导读 本专栏收录于《华为OD机试(JAVA)真题(A卷B卷)》。 刷的越多&…

Lalamu-免费视频口型同步工具,创建属于你自己的虚拟数字人

什么是Lalamu? Lalamu 是一款视频口型同步应用程序。该应用程序由 Lalamu Entertainment 开发,允许用户对视频中的任何面孔进行口型同步。无论是人物、人体模型、书籍封面、艺术品、演员、婴儿、蜡像,甚至银行账单上的面孔,Lalamu 都可以让…