Meta革命性发布:Llama 3.1——性能最强的AI开源模型,开启智能新时代!

news2024/11/15 16:02:12

前言

🚀 Meta隆重推出Llama 3.1:迄今为止性能最强的AI模型

Meta公司近日发布了他们最新的AI语言模型——Llama 3.1,这一消息迅速在科技界掀起了波澜。作为猫头虎技术团队,我们将为大家详细解析Llama 3.1的强大功能及其应用前景。 🐫

Meta公司最新发布的Llama 3.1 AI模型,以其前所未有的灵活性、控制力和最先进的功能,震撼了整个科技界。这一开源模型不仅将上下文长度扩展到128K,支持八种语言,还为开发者提供了前沿级的智能工具。Llama 3.1 405B的独特性能使其能够与最佳闭源模型媲美,同时解锁合成数据生成和模型提炼等新工作流程。通过与25个顶级合作伙伴的协作,包括AWS、NVIDIA和Google Cloud等,Llama 3.1将为开发者提供创建自定义代理和新型代理行为的强大工具,推动开源AI的创新和应用。 🐫


猫头虎是谁?

大家好,我是 猫头虎,别名猫头虎博主,擅长的技术领域包括云原生、前端、后端、运维和AI。我的博客主要分享技术教程、bug解决思路、开发工具教程、前沿科技资讯、产品评测图文、产品使用体验图文、产品优点推广文稿、产品横测对比文稿,以及线下技术沙龙活动参会体验文稿。内容涵盖云服务产品评测、AI产品横测对比、开发板性能测试和技术报告评测等。

目前,我活跃在CSDN、51CTO、腾讯云开发者社区、阿里云开发者社区、知乎、微信公众号、视频号、抖音、B站和小红书等平台,全网拥有超过30万的粉丝,统一IP名称为 猫头虎 或者 猫头虎博主。希望通过我的分享,帮助大家更好地了解和使用各类技术产品。

原创作者 ✍️

  • 博主猫头虎
    • 全网搜索关键词猫头虎
    • 作者微信号Libin9iOak
    • 作者公众号猫头虎技术团队
    • 更新日期2024年6月16日
    • 🌟 欢迎来到猫头虎的博客 — 探索技术的无限可能!

专栏链接 🔗

  • 精选专栏
    • 《面试题大全》 — 面试准备的宝典!
    • 《IDEA开发秘籍》 — 提升你的IDEA技能!
    • 《100天精通鸿蒙》 — 从Web/安卓到鸿蒙大师!
    • 《100天精通Golang(基础入门篇)》 — 踏入Go语言世界的第一步!
    • 《100天精通Go语言(精品VIP版)》 — 踏入Go语言世界的第二步!

领域矩阵 🌐

  • 猫头虎技术领域矩阵
    • 猫头虎技术矩阵
    • 新矩阵备用链接

加入猫头虎的技术圈,一起探索编程世界的无限可能! 🚀

文章目录

  • 前言
    • 猫头虎是谁?
    • 原创作者 ✍️
    • 专栏链接 🔗
    • 领域矩阵 🌐
    • 加入猫头虎的技术圈,一起探索编程世界的无限可能! 🚀
  • Meta革命性发布:Llama 3.1——性能最强的AI开源模型,开启智能新时代!
    • 隆重推出 Llama 3.1
    • 模型评估
    • 模型架构
    • 指令和聊天微调
    • 骆驼系统
    • 开放驱动创新
    • 使用 Llama 3.1 405B 进行构建
    • 立即试用 Llama 3.1 系列模型
    • 结尾
      • 联系与版权声明 📩

Meta革命性发布:Llama 3.1——性能最强的AI开源模型,开启智能新时代!

在这里插入图片描述

隆重推出 Llama 3.1

Llama 3.1 405B 是第一个公开可用的模型,在常识、可操纵性、数学、工具使用和多语言翻译等先进功能方面可与顶级 AI 模型相媲美。随着 405B 模型的发布,Meta团队已准备好增强创新能力,为增长和探索提供前所未有的机会。Meta团队相信最新一代的 Llama 将激发新的应用程序和建模范例,包括合成数据生成,以便改进和训练较小的模型,以及模型提炼,这是开源中从未如此大规模实现的功能。

作为最新版本的一部分,Meta团队推出了 8B 和 70B 模型的升级版本。这些模型支持多种语言,上下文长度显著增加,达到 128K,使用最先进的工具,推理能力也更强。这使得Meta团队的最新模型能够支持高级用例,例如长篇文本摘要、多语言对话代理和编码助手。Meta团队还对许可证进行了更改,允许开发人员使用 Llama 模型(包括 405B)的输出来改进其他模型。为了履行Meta团队对开源的承诺,从今天开始,Meta团队将这些模型提供给社区,供其在llama.meta.com和Hugging Face上下载,并可在Meta团队广泛的合作伙伴平台生态系统上立即开发。

模型评估

对于此版本,Meta团队在 150 多个涵盖多种语言的基准数据集上评估了性能。此外,Meta团队还进行了广泛的人工评估,在真实场景中将 Llama 3.1 与竞争模型进行了比较。Meta团队的实验评估表明,Meta团队的旗舰模型在一系列任务中与领先的基础模型相媲美,包括 GPT-4、GPT-4o 和 Claude 3.5 Sonnet。此外,Meta团队的小型模型与具有相似数量参数的封闭和开放模型相媲美。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

模型架构

作为Meta团队迄今为止最大的模型,在超过 15 万亿个 token 上训练 Llama 3.1 405B 是一项重大挑战。为了能够以这种规模进行训练并在合理的时间内取得成果,Meta团队显著优化了整个训练堆栈,并将模型训练推向超过 16,000 个 H100 GPU,使 405B 成为第一个以这种规模训练的 Llama 模型。
模型架构

为了解决这个问题,Meta团队做出了设计选择,重点关注保持模型开发过程的可扩展性和简单性。

  • Meta团队选择了标准的仅解码器的变压器模型架构,并进行了细微的改动,而不是混合专家模型,以最大限度地提高训练稳定性。
  • Meta团队采用了迭代式后训练程序,每轮都使用监督式微调和直接偏好优化。这使Meta团队能够为每一轮创建最高质量的合成数据,并提高每项功能的性能。

与之前的 Llama 版本相比,Meta团队提高了用于训练前和训练后的数据的数量和质量。这些改进包括为训练前数据开发更仔细的预处理和管理流程、开发更严格的质量保证以及训练后数据的过滤方法。

正如语言模型的缩放定律所预期的那样,Meta团队的新旗舰模型比使用相同程序训练的小型模型表现更好。Meta团队还使用 405B 参数模型来提高小型模型的训练后质量。

为了支持 405B 规模模型的大规模生产推理,Meta团队将模型从 16 位 (BF16) 量化为 8 位 (FP8) 数字,有效降低了所需的计算要求并允许模型在单个服务器节点内运行。

指令和聊天微调

借助 Llama 3.1 405B,Meta团队努力提高模型对用户指令的响应能力、质量和详细指令遵循能力,同时确保高水平的安全性。Meta团队面临的最大挑战是支持更多功能、128K 上下文窗口和更大的模型大小。

在后期训练中,Meta团队通过在预训练模型的基础上进行几轮对齐来生成最终的聊天模型。每轮都涉及监督微调 (SFT)、拒绝抽样 (RS) 和直接偏好优化 (DPO)。Meta团队使用合成数据生成来生成绝大多数 SFT 示例,并进行多次迭代以生成涵盖所有功能的越来越高质量的合成数据。此外,Meta团队投资了多种数据处理技术,以将这些合成数据过滤到最高质量。这使Meta团队能够跨功能扩展微调数据量。

Meta团队仔细平衡数据,以生成在所有功能上都具有高质量模型。例如,即使扩展到 128K 上下文,Meta团队的模型在短上下文基准上也能保持质量。同样,即使Meta团队添加了安全缓解措施,Meta团队的模型仍能继续提供最有帮助的答案。

骆驼系统

Llama 模型始终旨在作为整体系统的一部分,该系统可以协调多个组件,包括调用外部工具。Meta团队的愿景是超越基础模型,让开发人员能够访问更广泛的系统,让他们能够灵活地设计和创建符合他们愿景的定制产品。这种想法始于去年,当时Meta团队首次引入了核心 LLM 之外的组件。

为了持续致力于在模型层之外负责任地开发 AI 并帮助其他人也这样做,Meta团队发布了一个完整的参考系统,其中包括几个示例应用程序,并包括新组件,例如[Llama Guard 3](https://llama.meta.com/trust-and-safety/#safeguard-model ?)(多语言安全模型)和 Prompt Guard(即时注入过滤器)。这些示例应用程序是开源的,社区可以在此基础上进行构建。

Llama System 愿景中的组件实现仍然很分散。这就是为什么Meta团队开始与行业、初创公司和更广泛的社区合作,以帮助更好地定义这些组件的接口。为了支持这一点,Meta团队在 GitHub 上发布了对Meta团队称之为“Llama Stack”的评论请求。Llama Stack 是一组标准化和有主见的接口,用于如何构建规范的工具链组件(微调、合成数据生成)和代理应用程序。Meta团队希望这些接口能够在整个生态系统中得到采用,这将有助于更轻松地实现互操作性。

Meta团队欢迎反馈和改进提案的方法。Meta团队很高兴能够发展围绕 Llama 的生态系统并降低开发人员和平台提供商的门槛。

开放驱动创新

与封闭模型不同,Llama 模型权重可供下载。开发人员可以根据自己的需求和应用完全自定义模型,在新数据集上进行训练,并进行额外的微调。这使更广泛的开发人员社区和世界能够更充分地认识到生成式 AI 的强大功能。开发人员可以完全自定义其应用程序,并在任何环境中运行,包括本地、云端,甚至本地笔记本电脑上 - 所有这些都无需与 Meta 共享数据。

尽管许多人可能认为封闭模型更具成本效益,但根据人工智能分析的测试,Llama 模型的每代币成本是业内最低的。正如马克·扎克伯格所说,开源将确保全世界更多的人能够享受人工智能的好处和机会,权力不会集中在少数人手中,并且该技术可以更均匀、更安全地在整个社会中部署。这就是为什么Meta团队继续采取措施,让开放式人工智能成为行业标准。

Meta团队看到社区利用过去的 Llama 模型构建了令人惊叹的东西,包括使用 Llama 构建并部署在 WhatsApp 和 Messenger 中的AI 学习伙伴、专为医疗领域量身定制的 LLM,旨在帮助指导临床决策,以及巴西的一家医疗保健非营利初创公司,它使医疗保健系统能够更轻松地以数据安全的方式组织和传达患者的住院信息。借助开源的力量,Meta团队迫不及待地想看看他们利用Meta团队的最新模型构建了什么。

使用 Llama 3.1 405B 进行构建

对于普通开发者来说,使用 405B 规模的模型是一项挑战。虽然这是一个非常强大的模型,但Meta团队认识到,使用它需要大量的计算资源和专业知识。Meta团队与社区进行了交流,Meta团队意识到生成式 AI 开发不仅仅是提示模型。Meta团队希望让每个人都能充分利用 405B,包括:

  • 实时和批量推理
  • 监督微调
  • 针对您的特定应用评估您的模型
  • 持续预训练
  • 检索增强生成 (RAG)
  • 函数调用
  • 合成数据生成

这正是 Llama 生态系统可以提供帮助的地方。在第一天,开发人员就可以利用 405B 模型的所有高级功能并立即开始构建。开发人员还可以探索高级工作流程,例如易于使用的合成数据生成、遵循模型提炼的交钥匙指示以及使用 AWS、NVIDIA 和 Databricks 等合作伙伴的解决方案实现无缝 RAG。此外,Groq 针对云部署优化了低延迟推理,而戴尔也针对本地系统实现了类似的优化。

在这里插入图片描述

Meta团队与 vLLM、TensorRT 和 PyTorch 等主要社区项目合作,从第一天开始提供支持,以确保社区为生产部署做好准备。

Meta团队希望 405B 的发布也能激发整个社区的创新,使这种规模的模型的推理和微调变得更容易,并推动模型提炼的下一波研究。

立即试用 Llama 3.1 系列模型

Meta团队迫不及待地想看看社区将如何处理这项工作。使用多语言性和增加的上下文长度,可以构建有用的新体验,潜力巨大。借助 Llama Stack 和新的安全工具,Meta团队期待继续负责任地与开源社区共同建设。在发布模型之前,Meta团队会通过多种措施来识别、评估和减轻潜在风险,包括通过红队进行部署前风险发现练习以及安全微调。例如,Meta团队与外部和内部专家进行了广泛的红队测试,以对模型进行压力测试并找到可能使用它们的意外方式。(阅读此博客文章,了解有关Meta团队如何负责任地扩展Meta团队的 Llama 3.1 模型集合的更多信息。)

虽然这是Meta团队迄今为止最大的模型,但Meta团队相信未来仍有许多新的领域值得探索,包括更多设备友好的尺寸、更多模式以及在代理平台层的更多投资。与往常一样,Meta团队期待看到社区将利用这些模型构建的所有令人惊叹的产品和体验。

结尾

Llama 3.1 405B的发布不仅代表了Meta在AI领域的技术突破,也标志着开源AI新时代的到来。Meta团队期待看到开发者们利用这一强大工具创造出更多令人惊叹的应用。立即试用Llama 3.1,加入开源AI的未来吧! 🚀

总结: Meta推出的Llama 3.1在性能、功能和开放性上都达到了新的高度,必将引领AI领域的创新潮流。Meta团队将继续关注这一领域的动态,带来更多精彩内容,敬请关注猫头虎技术团队公众号。

参考资料:

  • Mark Zuckerberg的开源AI信件
  • Llama 3.1官方发布文档
  • Meta AI团队的技术白皮书

温馨提示: 请关注猫头虎技术团队公众号,第一时间获取最新科技资讯和深度解析。

👉 更多信息:有任何疑问或者需要进一步探讨的内容,欢迎点击下方文末名片获取更多信息。我是猫头虎博主,期待与您的交流! 🦉💬
在这里插入图片描述

联系与版权声明 📩

  • 联系方式
    • 微信: Libin9iOak
    • 公众号: 猫头虎技术团队
  • 版权声明
    本文为原创文章,版权归作者所有。未经许可,禁止转载。更多内容请访问猫头虎的博客首页。

点击✨⬇️下方名片⬇️✨,加入猫头虎领域社群矩阵。一起探索科技的未来,共同成长。🚀

🔗 猫头虎社群 | 🔗 Go语言VIP专栏 | 🔗 GitHub 代码仓库 | 🔗 Go生态洞察专栏
✨ 猫头虎精品博文

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1946144.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

unity文字||图片模糊

一.文字模糊 1、增大字体大小后等比缩放 快捷键R 2、更改字体渲染模式 二.图片模糊 1、更改过滤模式 2、更改格式或者压缩 3、如果只是图片边缘看不清,可以增加canvas/图片的每单位参考像素

C++学习笔记01-语法基础(问题-解答自查版)

前言 以下问题以Q&A形式记录,基本上都是笔者在初学一轮后,掌握不牢或者频繁忘记的点 Q&A的形式有助于学习过程中时刻关注自己的输入与输出关系,也适合做查漏补缺和复盘。 本文对读者可以用作自查,答案在后面&#xff0…

AV1技术学习:Quantization

量化是对变换系数进行,并将量化索引熵编码。AV1的量化参数 QP 的取值范围是0 ~ 255。 一、Quantization Step Size 在给定的 QP 下,DC 系数的量化步长小于 AC 系数的量化步长。DC 系数和 AC 系数从 QP 到量化步长的映射如下图所示。当 QP 为 0 时&…

inventory主机清单管理与playbook剧本

1 inventory主机清单管理 Inventory支持对主机进行分组,每个组内可以定义多个主机,每个主机都可以定义在任何一个或多个主机组内。 如果是名称类似的主机,可以使用列表的方式标识各个主机。 vim /etc/ansible/hosts [webservers] 192.168.8…

L60---1189. “气球” 的最大数量(排序)---Java版

1.题目 2.思路 (1)用字典的方法 (2)今天脑子已经无法思考了&#xff0c;明天再补充 3.代码实现 class Solution {public int maxNumberOfBalloons(String text) {// 单词 "balloon" 中各字母的需求Map<Character, Integer> required new HashMap<>()…

leetcode3098. 求出所有子序列的能量和

官解 class Solution(object):# 定义常量mod int(1e9 7) # 模数&#xff0c;用于防止结果溢出inf float(inf) # 无穷大&#xff0c;用于初始化时的特殊值def sumOfPowers(self, nums, k):n len(nums) # 数组长度res 0 # 用于存储最终结果# 三维动态规划表&#xff0c;…

JAVA.包、final、权限

包 final 权限 代码块 1.构造代码块 创建这个本类的对象的时候会先指向构造代码块再执行构造方法 作用&#xff1a;把构造方法重复的部分抽取出来 2.静态代码块 static 随着类的加载而加载&#xff0c;只执行一次。 作用&#xff1a;数据初始化&#xff0c;比如在学生管…

AV1技术学习:Constrained Directional Enhancement Filter

CDEF允许编解码器沿某些(可能是倾斜的)方向应用非线性消阶滤波器。它以88为单位进行。如下图所示&#xff0c;通过旋转和反射所示的三个模板来定义八个预设方向。 Templates of preset directions and their associated directions. The templates correspond to directions of…

从零开始:在Linux系统上创建和管理Conda环境的详细指南【安装教程】

引言 在数据科学和机器学习领域&#xff0c;使用虚拟环境来管理不同项目的依赖是一个常见且重要的实践。Conda是一个强大的包管理和环境管理工具&#xff0c;广泛应用于Python和R的开发环境中。本文将详细介绍如何在Ubuntu系统上从零开始安装和使用Conda&#xff0c;通过创建和…

keras框架的to_categorical方法

在阅读keras的中文文档时候&#xff0c;对于这里的代码不了解 y_train keras.utils.to_categorical(np.random.randint(10, size(1000, 1)), num_classes10)这里应该拆分为两部分看待 第一个是np.random.randint() 查看numpy文档知道&#xff1a; random.randint ( low , hi…

设计模式--创建型

实现 #include <iostream> #include <memory>// 抽象产品类 class Product {public:virtual void Operation() const 0; };// 具体产品 类A class ConcreteProductA : public Product {public:virtual void Operation() const override {std::cout << &quo…

Tomcat部署、优化、压力测试

目录 Tomcat概念 核心组件 Web容器 Web服务器之间解析请求的区别 Apache HTTP Server Nginx Tomcat Servlet容器 JSP容器 字节码文件 Tomcat表面处理请求的过程 Tomcat底层处理请求的过程 内部结构 Tomcat部署 JRE环境配置 PATH冒号位置的区别 安装Tomcat 目…

连接Redis异常:JedisMovedDataException

redis.clients.jedis.exceptions.JedisMovedDataException: MOVED 5798 192.168.187.138:6379 在使用JAVA API连接redis的时候&#xff0c;出现了异常&#xff1a; 问题的原因 JAVA API实现是redis集群实现方式&#xff0c;而在配置文中就配置的是单结点的方式。 Moved表示使…

MySQL的高可用(MHA)

高可用模式下的故障切换&#xff0c;基于主从复制。 单点故障和主从复制不能切换的问题。 至少需要三台。 故障切换过程0-30秒 vip地址&#xff0c;根据vip地址所在的主机&#xff0c;确定主备。 主 vip 备 vip 主和备不是优先级确定的&#xff0c;主从复制的时候就确定…

使用infercnv对单细胞转录组进行拷贝数变异推断(上,原理)

InferCNV 是一个专门设计用于鉴定肿瘤样本中拷贝数变异&#xff08;Copy Number Variations, CNVs&#xff09;的R包&#xff0c;特别是在单细胞RNA测序&#xff08;scRNA-seq&#xff09;数据分析领域。它通过比较肿瘤细胞与正常细胞&#xff08;或参照细胞&#xff09;的基因…

【Leetcode】十八、动态规划:不同路径 + 全1的最大正方形

文章目录 1、动态规划2、leetcode509&#xff1a;斐波那契数列3、leetcode62&#xff1a;不同路径4、leetcode121&#xff1a;买卖股票的最佳时机5、leetcode70&#xff1a;爬楼梯6、leetcode279&#xff1a;完全平方数7、leetcode221&#xff1a;最大正方形 1、动态规划 只能…

CTFSHOW 萌新 web5 解题思路和方法

点击题目链接&#xff0c;发现页面代码&#xff0c;根据最后一行的提示当id1000时返回flag值&#xff0c;但是前面if判断intval(id)的值不得超过999&#xff0c;故需要对其进行绕过。 我们发现题目中相比前几题中过滤条件更为严格&#xff0c;但是没有过滤取反运算符。此时我们…

matlab 绘制参数方程

matlab 绘制参数方程 绘制参数方程绘制结果 绘制参数方程 clc; clear; close all;axis_length 100;% 定义参数t的范围 t 0:0.01:100;% 计算x和y的值 x t.^2 1; y 4*t - t.^2;% 绘制函数图像 plot(x, y); xlabel(x); ylabel(y); title(Plot of the curve xt^21, y4t-t^2…

运维朋友最喜欢的一集:trzsz-ssh!!【送源码】

软件介绍 trzsz-ssh&#xff08;tssh&#xff09;是一个替代openssh的SSH客户端软件&#xff0c;支持trzsz、批量登录、密码记忆、zmodem等功能。可实现方便的本地与远程服务器文件传输&#xff0c;支持多系统跨平台运行&#xff0c;提供良好的交互体验和进度显示。优势包括tmu…

普发Pfeiffer真空TSH071TSU261TSH521泵站电路图安装操作使用说明

普发Pfeiffer真空TSH071TSU261TSH521泵站电路图安装操作使用说明