开源=最强大模型!Llama3.1发布,405B超越闭源GPT-4o,扎克伯格:分水岭时刻

news2024/12/23 10:25:18

刚刚,LIama 3.1正式发布,登上大模型王座!

在150多个基准测试集中,405B版本的表现追平甚至超越了现有SOTA模型GPT-4o和Claude 3.5 Sonnet。

也就是说,这次,最强开源模型即最强模型

在此之前,Llama 3.1已经被多番曝光泄露,如今可以说千呼万唤始出来。

从今天开始,模型即可在官网上下载使用,Meta AI应用可在线试玩。

更令研究社区赞赏的是发布近100页详细论文,涵盖了创造Llama 3.1过程中的一切:预训练数据、过滤、退火、合成数据、缩放定律、基础设施、并行性、训练配方、训练后适应、工具使用、基准测试、推理策略、量化、视觉、语音、视频……

HuggingFace首席科学家赞叹:如果你是从零开始研究大模型,就从这篇论文读起。

小扎扎克伯格还在最新接受彭博社采访时专门嘲讽了一把OpenAI。

奥特曼的领导能力值得称赞,但有点讽刺的是公司名为OpenAI却成为构建封闭式人工智能模型的领导者。

小扎还专门为此撰写了一篇长文:开源AI是前进的道路

以往,开源模型在性能、功能等方面大多落后于闭源模型,但现在:

就像开源的Linux在一众闭源系统中脱颖而出获得普及,并逐渐变得更先进、更安全,拥有比闭源系统更广泛的生态。

我相信Llama 3.1将成为行业的一个转折点。

迄今为止,所有Llama 版本的总下载量已超过 3 亿次,Meta也是放下豪言:

这仅仅是个开始。

各大云厂商也在第一时间上线了的Llama 3.1的支持,价格是酱婶的:

LIama 3.1官方正式发布

首先来看模型能力。

Llama 3.1将上下文长度扩展到 128K、增加了对八种语言的支持。

其中超大杯405B版本,在常识、可操纵性、数学、工具使用和多语言翻译等能力方面都追平、超越了现有顶尖模型。


除此之外,也推出了8B和70B模型的升级版本,能力与同等参数下的顶尖模型基本持平。

再来看模型架构

官方介绍,要在超15万亿个token上训练 Llama 3.1 405B模型挑战不小。

为此他们大幅优化了整个训练栈,并把模型算力规模首次扩展到了超过16000个H100 GPU。

具体来说,还是采用标准的仅解码器的Transformer架构,并做一些细微改动;并采用迭代的post-traing流程,每轮都有SFT(监督微调)和DPO(直接偏好优化),以提高每个能力的性能。

与Llama以前的版本相比,他们提高了用于预训练和post-training数据的数量和质量。

而为了支持405B这样尺寸模型的大规模生产推理,Meta将模型从16位(BF16)量化到8位(FP8)数值,有效地降低了所需的计算需求,并允许模型在单个服务器节点内运行。

指令微调方面,Meta还提高了模型对用户指令的响应能力、增强了它遵循详细指令的能力,同时保证安全性。

在post-training阶段,Meta在预训练模型的基础上进行多轮对齐。

每一轮都包括监督微调(Supervised Fine-Tuning, SFT)、拒绝采样(Rejection Sampling, RS)和直接偏好优化(Direct Preference Optimization, DPO)。

他们使用合成数据生成来绝大部分SFT示例,并数次迭代。

此外,还采用了多种数据处理技术来将这些合成数据过滤到最高质量。

总计15T tokens使用Llama 2模型做清理和过滤,而代码和数学相关的数据处理流水线则主要借鉴了Deepseek的方法。

除了最基本的根据提示词响应,Meta官方表示,任何普通开发者可以用它做些高级的事情,比如:

  • 实时和批量推理

  • 监督微调

  • 针对特定应用评估模型

  • 持续预训练

  • 检索增强生成 (RAG)

  • 函数调用

  • 合成数据生成

而这背后也是由它的强大生态伙伴支持。

小扎撰写长文:开源AI是前进的道路

(以下由大模型翻译,摘取主体内容,如有遗漏错误欢迎更正!)

在高性能计算的早期,当时的大型科技公司都投入巨资开发各自闭源的Unix版本。那时,很难想象除了闭源之外,还有其他途径能够孕育出如此先进的软件。然而,开源的Linux操作系统最终赢得了广泛的欢迎——最初是因为它允许开发者自由地修改代码,成本也更加低廉;随着时间的流逝,Linux不仅变得更加先进和安全,而且构建了一个比任何闭源Unix系统都要广泛的生态系统,支持更多的功能。如今,Linux已成为云计算和大多数移动设备操作系统的行业标准基础,我们所有人都因此享受到了更优质的产品。

我相信人工智能将以类似的方式发展。今天,几家科技公司正在开发领先的闭源模型。但开源正在迅速缩小差距。去年,Llama 2只能与落后一代的模型相媲美。今年,Llama 3与最先进的模型竞争,并在某些领域领先。从明年开始,我们预计未来的Llama模型将成为行业中最先进的。但即使在那之前,Llama已经在开放性、可修改性和成本效率方面领先。

今天,我们正在朝着**“开源人工智能成为行业标准”**的方向迈进。我们发布了Llama 3.1 405B,这是第一个前沿级别的开源人工智能模型,以及改进版Llama 3.1 70B和8B模型。除了与闭源模型相比具有显著更好的成本/性能比之外,405B模型的开放性将使其成为微调和蒸馏更小模型的最佳选择。

除了发布这些模型外,我们正与一系列公司合作,以发展更广泛的生态系统。亚马逊、Databricks和英伟达正在推出一整套服务,支持开发者微调和蒸馏自己的模型。像Groq这样的创新者已经为所有新模型构建了低延迟、低成本的推理服务。这些模型将在所有主要云平台上提供,包括AWS、Azure、Google、Oracle等。像Scale.AI、Dell、德勤等公司已准备好帮助企业采用Llama,并用他们自己的数据训练定制模型。随着社区的增长和更多公司开发新服务,我们可以共同使Llama成为行业标准,将AI的好处带给每个人。

Meta致力于开源人工智能。我将概述为什么我认为开源是最好的开发堆栈,为什么开源Llama对Meta有好处,以及为什么开源人工智能对世界有好处,因此是一个长期可持续的平台。

为什么开源人工智能对开发者有好处

当我与世界各地的开发者、首席执行官和官员交谈时,我通常会听到几个主题:

  • 我们需要训练、微调和蒸馏我们自己的模型。。每个组织都有其独特的需求,最适合的是使用不同规模的模型,这些模型可以根据他们特定的数据进行训练或微调。对于设备上的任务和分类任务,小模型足矣;而对于更复杂的任务,则需要大模型。现在,你可以利用最先进的Llama模型,用你自己的数据继续训练它们,然后将它们蒸馏成一个最适合你需要的模型尺寸——而无需让我们或任何其他人看到你的数据。

  • 我们需要控制自己的命运,不要被限制在闭源供应商那里。许多组织不希望依赖他们无法自行运行和控制的模型。他们不希望闭源模型提供者能够更改模型、修改使用条款,甚至完全停止服务。他们也不想被限制在只有一个云平台拥有模型独家使用权。开源允许广泛的公司生态系统拥有兼容的工具链,使你可以轻松地在它们之间迁移。

  • 我们需要保护我们的数据安全。许多组织处理敏感数据,需要加以保护,不能通过闭源模型的云API发送。还有一些组织根本不信任闭源模型提供者处理他们的数据。开源通过允许你在任何地方运行模型来解决这些问题。普遍认为,开源软件通常更安全,因为它的开发过程更加透明。

  • 我们需要一个运行效率高且负担得起的模型。开发者可以在自己的基础设施上,以大约使用闭源模型如GPT-4o一半的成本,运行Llama 3.1 405B的推理,无论是面向用户的还是离线推理任务。

  • 我们希望投资于将成为长期标准的生态系统。许多人看到开源的发展速度比闭源模型快,他们希望建立他们的系统在将给他们带来最大长期优势的架构上。

为什么开源人工智能对Meta有好处

Meta的商业模式是为人们创造最佳的体验和服务。为此,我们必须确保始终能够获取最佳技术,并且不会被锁定在竞争对手的闭源生态系统中,从而限制了我们的创新能力。

我的一个重要经历是,由于苹果对我们在其平台上能够构建的内容有所限制,我们的服务受到了制约。从他们对开发者征税的方式,到他们随意应用的规则,再到他们阻止发布的所有产品创新,很明显,如果我们能够构建产品的最佳版本,而竞争对手无法限制我们的创新,Meta和其他许多公司将能够为人们提供更好的服务。从哲学上讲,这是我坚信在人工智能和AR/VR中为下一代计算构建开放生态系统的主要原因。

人们经常问我是否担心通过开源Llama放弃技术优势,但我认为这忽略了大局,原因有几个:

首先,为了确保我们能够获取最佳技术,并且长期不会被锁定在闭源生态系统中,Llama需要发展成为一个完整的工具生态系统,包括效率提升、硅片优化和其他集成。如果我们是唯一使用Llama的公司,这个生态系统就不会发展起来,我们的表现也不会比Unix的闭源版本更好。

其次,我预计人工智能的发展将继续非常具有竞争力,这意味着开源任何特定模型并不会在当时给予比下一个最佳模型更大的优势。Llama成为行业标准的道路是通过持续保持竞争力、效率和开放性,一代又一代地发展。

第三,Meta与闭源模型提供者的一个关键区别在于,出售对人工智能模型的访问并不是我们的商业模式。这意味着公开发布Llama并不会削弱我们的收入、可持续性或研究投资能力,而这对于闭源提供者来说则不然。

最后,Meta有着长期的开源项目和成功的历史。我们通过发布服务器、网络和数据中心设计,并让供应链标准化我们的设计,通过Open Compute项目节省了数十亿美元。我们通过开源诸如PyTorch、React等领先工具,从生态系统的创新中受益。长期坚持这种方法对我们始终有效。

为什么开源人工智能对世界有好处

我相信开源对于实现积极的人工智能未来至关重要。人工智能比任何其他现代技术都有更大的潜力来提升人类的生产力、创造力和生活质量——并加速经济增长,同时推动医学和科学研究的进步。开源将确保全球更多的人能够获得人工智能的好处和机会,权力不会集中在少数公司手中,技术可以更均匀、更安全地在社会中部署。

关于开源人工智能模型的安全性正在进行辩论,我的看法是开源人工智能将比替代方案更安全。

我理解安全框架是我们需要防范两类伤害:无意的和故意的。无意的伤害是当一个人工智能系统可能会造成伤害,即使运行它的人没有意图这样做。例如,现代人工智能模型可能会无意中给出不良的健康建议。或者,在更具未来感的情景中,一些人担心模型可能会无意中自我复制或过度优化目标,从而损害人类。故意伤害是当一个不良行为者使用人工智能模型以达到造成伤害的目的。

值得注意的是,无意的伤害涵盖了人们对人工智能的大多数担忧——从人工智能系统将对数十亿使用者产生什么影响,到对人类来说真正灾难性的科幻情景的大部分。在这方面,开源应该更安全,因为系统更透明,可以广泛审查。从历史上看,开源软件因此更安全。同样,使用Llama及其安全系统如Llama Guard可能会比闭源模型更安全、更可靠。因此,关于开源人工智能安全性的大多数对话都集中在故意伤害上。

我们的安全流程包括严格的测试和红队,以评估我们的模型是否有能力造成重大伤害,目标是在发布前降低风险。由于模型是开放的,任何人都可以自己测试。我们必须记住,这些模型是由已经在网络上的信息训练的,所以当考虑伤害时,起点应该是模型是否能促进比从Google或其他搜索结果中快速检索到的信息更多的伤害。

当你考虑未来的机遇时,请记住,当今大多数领先的科技公司和科学研究都是建立在开源软件之上的。如果我们共同投资,下一代公司和研究将使用开源人工智能。

最重要的是,开源人工智能代表了世界上利用这项技术为每个人创造最大经济机会和安全的最佳机会。

让我们一起建设

对于过去的 Llama 模型,Meta 是自己开发然后发布的,但并没有过多关注构建更广泛的生态系统。这次发布我们采取了不同的方法。我们正在内部组建团队,让尽可能多的开发人员和合作伙伴能够使用 Llama,我们也在积极建立合作伙伴关系,以便生态系统中的更多公司也能为其客户提供独特的功能。

我相信 Llama 3.1 的发布将成为行业的一个转折点,大多数开发人员将开始主要使用开源,并且我预计这种方法只会从现在开始发展。我希望你能加入我们的旅程,将人工智能的好处带给世界上的每个人。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1970690.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

零基础入门转录组数据分析——机器学习算法之xgboost(筛选特征基因)

零基础入门转录组数据分析——机器学习算法之xgboost(筛选特征基因) 目录 零基础入门转录组数据分析——机器学习算法之xgboost(筛选特征基因)1. xgboost基础知识2. xgboost(Rstudio)——代码实操2. 1 数据…

第N高的薪水 [sql]

CREATE FUNCTION getNthHighestSalary(N INT) RETURNS INT BEGINset N N - 1;RETURN (# Write your MySQL query statement below.select distinct salary from Employee order by salary desc limit 1 offset N); END

VSCode使用conda虚拟环境配置

如何解决CondaError: Run ‘conda init‘ before ‘conda activate‘_condaerror: run conda init before conda activat-CSDN博客 首先检查自己的anaconda是否是添加到整个的环境变量里了 打开cmd如果conda和python都能够识别那么就是配置成功了 然后看插件是否安装&#xf…

1个惊艳的Python项目火出圈,已开源,10K stars!

本次分享一个Python工具Taipy:“To build data & AI web applications in no time”。 Taipy专为数据科学家和机器学习工程师设计,用于构建数据和AI的Web应用程序。 快速构建可投入生产的Web应用程序。无需学习HTML、CSS、JS等新前端语言,只需使用Python。专注于数据和A…

抖音短视频矩阵系统优势:为何选择短视频矩阵系统?

1. 抖音短视频矩阵系统 抖音短视频矩阵系统,是指通过抖音平台,以矩阵的形式进行短视频创作、发布和传播的一种模式。它以多样化的内容、丰富的表现形式、高度的专业化和协同性,吸引了大量用户和创作者的关注。 2. 短视频矩阵系统的优势 2.…

jdk和tomcat的环境配置以及使用nginx代理tomcat来实现负载均衡

目录 1.jdk环境配置 1.jdk下载 2.解压 3.将jdk-22.2移动到指定目录/usr/local/jdk22/下 4.配置文件 5.运行profile 6.测试 2.tomcat环境配置 1.下载tomcat 2.解压 3.将解压后的文件移动指定目录 4.启动tomcat 5.查看端口确定是否确定成功 6.测试 7.tomcat目录 1…

<数据集>航拍人车识别数据集<目标检测>

数据集格式:VOCYOLO格式 图片数量:9695张 标注数量(xml文件个数):9695 标注数量(txt文件个数):9695 标注类别数:4 标注类别名称:[car, pedestrian, truck, bus] 序号类别名称图片数框数1car923525710…

GIT如何将远程指定分支的指定提交拉回到本地分支

一、当前我的代码在这个提交&#xff0c;但可以看到远程仓库上面还有两次新的提交 二、现在我想让我本次的代码更新到最上面这个最新的提交 三、输入git fetch命令获取远程分支的最新提交信息。 四、输入 git log origin/<remote_branch_name>查看并找到想要更新的指定提…

Reat hook开源库推荐

Channelwill Hooks 安装 npm i channelwill/hooks # or yarn add channelwill/hooks # or pnpm add channelwill/hooksAPI 文档 工具 Hooks useArrayComparison: 比较两个数组的变化。useCommunication: 处理组件之间的通信。useCurrencyConverter: 货币转换工具。useCurre…

【SRC挖掘】众测下的SQL注入挖掘案例

众测下的SQL注入挖掘 众测下的SQL注入挖掘0x01原理&#xff1a;0x02测试方法&#xff1a;常用手法&#xff1a;注入存在点&#xff1a; 0x03案例&#xff1a;总结 众测下的SQL注入挖掘 0x01原理&#xff1a; sql注入的原理在这里就不在详细介绍了&#xff0c;我相信大多数师傅…

MySQL数据库 外键默认约束和action 基础知识【2】推荐

数据库就是储存和管理数据的仓库&#xff0c;对数据进行增删改查操作&#xff0c;其本质是一个软件。MySQL就是一种开源的关系型数库&#xff0c;也是最受欢迎的数据库之一&#xff0c;今天对MySQL数据的基础知识做了整理&#xff0c;方便自己查看&#xff0c;也欢迎正在学习My…

DITA的优点和缺点

作者 | Stefan Jung DITA的实施可能是一项复杂的任务&#xff0c;本节列出了在实施DITA之前需要了解它的优缺点。 - 1 - 优点 开放标准 被很多公司采用 可以与版本控制系统一起使用&#xff0c;比如&#xff1a;Git 可扩展&#xff0c;可以从文件系统开始&#xff0c;稍后…

openGauss 5.0 LTS部署至华为云ECS CentOS8.2实操教程

一、前言 openGauss是一款高可靠、高性能、高安全、易运维的开源关系型数据库管理系统&#xff0c;然而其全功能部署对系统要求非常高。 本实操教程能够使个人开发者以及高校师生能够以成本最小的方式快速将openGauss部署到华为云的ECS上&#xff0c;以便快速进行功能验证以及…

C#(asp.net)电商后台管理系统-计算机毕业设计源码70015

摘 要 随着互联网技术的不断发展&#xff0c;电商行业也越来越受到人们的关注。为了提高电商行业的管理效率和服务水平&#xff0c;本文提出了一种基于ASP.NET电商后台管理系统的设计与实现方案。 电商管理系统基于VisualStudio开发平台&#xff0c;采用C#编程语言和ASP.NET等技…

使用 ModelScope 本地部署图片变视频模型

最近在抖音上看到很多视频可以让图片动起来&#xff0c;搜了一下&#xff0c;stabilityai/stable-video-diffusion-img2vid-xt 这个模型可以实现图片到视频&#xff0c;可以生成 25 帧的视频。Kling 和 Runway 都支持从图片生成视频&#xff0c;本文将通过 ModelScope 搭建一个…

如何下载Maven指定版本

下载Maven指定版本的步骤如下&#xff1a;‌ 1.访问Maven官网&#xff1a;‌首先&#xff0c;‌需要访问Maven的官方网站&#xff0c;‌即https://maven.apache.org/。‌ 2.选择下载链接&#xff1a;‌在官网首页&#xff0c;‌找到“Download”选项并点击进入下载页面。‌ …

你真的懂二分吗?

二分简述&#xff1a; 二分算法&#xff0c;又称为二分搜索或折半搜索&#xff0c;是一种在有序数组中查找特定元素的搜索算法。其基本思想是将数组分成两半&#xff0c;然后根据目标值与中间元素的大小关系来决定是继续在左侧还是右侧进行搜索。这个过程会不断重复&#xff0…

YOLOv8改进 | 激活函数 | 十余种常见的激活函数一键替换【完整代码】

秋招面试专栏推荐 &#xff1a;深度学习算法工程师面试问题总结【百面算法工程师】——点击即可跳转 &#x1f4a1;&#x1f4a1;&#x1f4a1;本专栏所有程序均经过测试&#xff0c;可成功执行&#x1f4a1;&#x1f4a1;&#x1f4a1; 专栏目录 &#xff1a;《YOLOv8改进有效…

HDU1089、1090、1091、1092、1093、1094、1095、1096、——A+B for Input-Output Practice

目录 HDU1089——AB for Input-Output Practice (I) HDU1090——AB for Input-Output Practice (II) HDU1091——AB for Input-Output Practice (III) HDU1092——AB for Input-Output Practice (IV) HDU1093——AB for Input-Output Practice (V) HDU1094——AB for Inpu…

VSCode上安装C#环境教程

本章教程,教你如何在vscode上,可以快速运行一些基础的c#代码。 1、下载 .NET Code SDK 下载地址:https://dotnet.microsoft.com/zh-cn/download/dotnet/sdk-for-vs-code?utm_source=vs-code&utm_medium=referral&utm_campaign=sdk-install 根据自己的操作系统,选择…