1毛钱1百万token,写2遍红楼梦!国产大模型下一步还想卷什么?

news2024/12/23 23:12:27
大模型价格战,这匹国产黑马又破纪录了!最低的GLM-4 Flash版本,百万token价格已经低至0.1元,可以说是击穿地心。MaaS 2.0大升级,让企业训练私有模型的成本无限降低。

刚刚,智谱AI开放日上,新一代MaaS平台2.0正式发布。

这次,GLM技术团队带来的是从模型,到成本、企业定制模型,以及业务场景的全面升级。

令人惊喜的是,第四代GLM系列开源模型GLM-4 9B,官宣开源免费用,还具备了多模态能力。同时,新发布的GLM-4-AIR性能媲美此前的最大基座模型,且价格降至1元/M token。

图片

在5月这波价格战之后,国内主流大模型API调用已经直降超90%。

需要明白的是,即便token价格无限逼近零,企业需要搞清楚如何用才能发挥巨大业务价值。

否则,再便宜也是无用功。

这次的发布,直接将智谱AI带入了商业化的最后一站。新一代MaaS平台出场,便是一个很好的起点。

大模型2024:既要落地,又要开源

如果说2023年是世界发现生成式AI的一年,那么,2024年才是企业真正使用GenAI,并从中获得商业价值的一年。

麦肯锡最新的全球调查报告称,65%的受访者表示企业会经常使用生成式AI。

而这个数字,比十个月前的调查(33%),几乎翻了一番。

图片

对于企业来说,从选用模型,到以低成本微调部署模型,并拥有灵活可用的全栈工具链,是让GenAI走向落地必不可少的过程。

那些无法「造血」没有自研模型的公司,就需要通过API、MaaS等平台,以便让LLM融入工作流。

比如,法律AI初创公司Harvey,通过OpenAI API,为律师们微调定制了一个「案例法模型」。

而且,经过测试,相较于GPT-4,有97%的律师更喜欢使用Harvey的模型。

而另一个典型的案例是,开源社区借助Llama 3之力,已经大大加速GenAI在医疗领域的应用。

在英伟达NIM推理微服务平台支持下,医疗开发者利用Llama 3已经开发出各种聊天助手、健康APP等。

图片

反观国内,LLM落地究竟有多火,就从卷疯的token价格战,可一瞥而知。

API价格,已经卷疯

而在国产大模型的战场上,价格战也在最近卷出新高。

  • 智谱AI开放平台的新用户,登录就送的500万token直接涨到2500万token
  • GLM-3-Turbo每千token从0.005元直降到0.001元
  • GLM-3 Turbo批处理API的价格也直接砍半,每千token砍到0.0005元

在这里插入图片描述

随后,火山引擎祭出更劲爆价格——豆包的企业定价直接击穿地心,千token低至0.0008元,比整个行业都便宜了99.3%。

智谱AI表示,基于技术突破、效率提升和成本控制三个因素综合的结果。通过大模型价格调整,更好满足开发者、客户需求。

当然,价格战仅是智谱AI贯彻MaaS战略中的一个「支点」。

大厂MaaS,如火如荼

大模型沸腾的热度,也让国内厂商的MaaS发展如火如荼。

所谓MaaS,即用户可以直接使用不同参数、不同规格的细分模型,来应对千变万化的应用场景。

商业链路打通后,蜂拥而至的开发者,就会让应用商店持续繁荣,形成「马太效应」。

今天的OpenDay上,智谱AI宣布MaaS平台不仅已经拥有了30万注册用户,而且模型的日均调用量也超过了400亿token。

在下面这条曲线中可以看出,在过去6个月中,智谱每日API的消耗量,增长了50倍以上。这正说明:已经有越来越多的企业,已经真正把模型用到了日常工作中。

GLM-4的API调用量则,则达到了90倍的增长。这也正说明,企业已经开始利用模型能力进入深水区,解决一些真正复杂的问题。

图片

而今年,大家开始对于大模型有了一些新的期待——除了更强大、更快的模型,用户也开始对成本变得敏感。

模型升级:0.1元写2本《红楼梦》

如今,平台上已经全线接入新模型,由ChatGLM3-6B升级为GLM-4-9B,堪称“最能打的小模型”,已经全面超过了 Llama3-8B-Instruct。

图片

在开放平台上,它变成GLM-4 Flash版本,价格相对于GLM-3-Turbo再次降价10倍,仅仅0.1元,就可以拥有一百万tokens,足够写两本四大名著了!

图片

如果小模型不能满足需求,新推出的GLM-4-Air性能更加强大。它的性能跟和此前的GLM-4-0116相仿,但价格仅为前者的百分之一!一百万tokens,仅需一元。

而许多企业应用到深水区时,对速度也有极高的要求,在此基础之上,智谱加入了极速版。

效果不变,但推理速度直升162%。71 token每秒,相当于每秒可以直出100多个汉字!

图片

并且,GLM-4-0116也同时升级了。

就在今天,智谱推出了GLM-4-0520,它的综合能力,已经提升了11.9%。

真正做过模型的应用的人,都明白这意味着什么:虽然在数字上看来只是一点点的提升,但这已经进一步提升了模型的天花板,极大扩展应用的范围,降低应用的成本。

图片

如今,智谱AI已经拥有全模型矩阵。

无论是GLM-4V,还是CogView-3,降价都达到了50%-60%——一张图只需一毛钱。

图片

开放平台升级:3步训出一个私有模型

每个企业都希望构建自己的私有模型。虽然开源生态让模型训练门槛大幅降低,但对于绝大多数企业,这个过程依然太复杂。

图片

为此,智谱AI也全面升级了自己的平台,仅仅三步——准备数据、创建微调任务、部署模型,就能让企业训出一个私有模型了!

这个过程中,不需要任何代码功底。而且,GLM-4全系列模型都支持这样的微调。

图片

针对企业,智谱AI提供了两种模式:LoRA微调和全参微调。

LoRA微调,可以说是性价比之王,用更低的成本达到较好的结果。

全参微调,相当于是探索模型微调的极限。

图片

可以看到,训练成本可以降低到87%。在LoRA微调上,GLM-4每千token只需要四毛钱,GLM-4-Air则只需要三分钱。

比起训练千亿模型动辄需要的多台A100、A800,显然门槛已经大幅降低。

而即使是全参微调的情况下,GLM-4每千token也只需要六毛钱,GLM-4-Air则只需要五分钱。

下面这个例子,是一个发生在客户身上的真实实验。

客户需要模型能够提供某领域专业化的咨询服务,于是,智谱AI尝试为客户做了微调。

他们选择了6000条语料,折合下来是一千万token。

训练后,模型的可用性从60%,直接上升到了89%!

图片

这不是一个简单的提升,而是一个本质性的飞跃,让模型从不可用,变成了完全可用,进一步探索了模型使用的边界。

所以,这次微调的成本是多少?

答案令人惊诧——如果使用LoRA的话,成本仅为300元!即使选择全参,也只需要500元。

图片

这个具体的demo,可以让我们深刻地体会到,如今训练出一个私有模型是多么容易。

另外,在AllTools的API平台上,智能体的能力能让大模型从解决一个单一任务,变成处理一个复杂任务。

在企业端,这样让使用模型的能力大幅度放开。

从此,每一家企业都能制作自己的智能体,以及智能体平台。

它可以让模型更好拆解任务,更好调用上下文function call的能力,还为企业提供了常用的一些智能体插件。

包括代码解释器、知识库检索增强、函数调用能力等等。

图片

开放平台地址:bigmodel.cn

国内开源,影响世界

另一边,国内模型开源掀起的风浪,已然波及到全世界。

而坚持开源,是智谱AI一直以来的传统。

他们不仅是国产LLM的领头羊,也是大模型学术生态、开源生态中,不可忽视,首屈一指的中国力量。

目前为止,智谱AI已经有三代模型全部开源。

6B系列开源模型,在Github上已累计获得超过6万star,相当于Llama系列模型的star总数,超过了Grok和其他所有模型;在Hugging Face上吸引了超过1300万次下载,四周Hugging Face趋势榜第一。

GPT-4发布的同一天,团队首次开源了ChatGLM-6B模型,随后6月开源了二代6B模型,并首次引入GQA、FlashAttention技术,将模型上下文扩充到32K,并加速了生成速度。

紧接着10月,三代6B模型开源,支持128K上下文。

图片

GLM-4 9B系列,免费开源

今天,智谱带来了第四代开源模型最新成果——GLM-4-9B。

显然,这次开源模型最大的变化是,参数规模从6B升级到了9B,并首次拥有了多模态能力。

而且,基于强大基座模型,GLM-4-9B不仅拥有更强的基础能力,更长的上下文,更精准的函数调用和All Tools能力。

图片

比起上一代ChatGLM3-6B,在5倍的计算量下,GLM-4 9B的性能从61.4提升到了72.4,中英文综合能力提升40%。

另外,在与训练量更多的Llama-3-8B-Instruct较量中,GLM-4-9B毫不逊色。

具体来说,英文方面,第四代模型小幅领先,而在中文学科方面实现了50%的提升。

图片

1M上下文,一次读完2本《红楼梦》

除此以外,GLM-4-9B的上下文从128K扩展到了1M,可同时处理200万字的输入。

这相当于,能够一次读完2本《红楼梦》,又或是125篇论文。

在长度为128K的LongBench-Chat上,GLM-4-9B-Chat模型相比上一代提升了20%。同时,在长度为1M的大海捞针测试中,GLM-4-9B-Chat-1M获得了「全绿」的成绩。

图片

图片

演示中,在1M版本模型中,输入《三体》的三本全集,共90万字的内容。

然后,给模型prompt「请仔细阅读上面的三部小说,如果让你给这个小说写第四部,你会怎么写,请给出大纲」。

模型给出了比较合理的续写规划。

图片

另外,GLM-4-9B函数调用能力,比上一代大幅提升40%。

在UC伯克利函数调用Leaderboard上,9B模型函数调用能力,即可媲美GPT-4-Turbo。

图片

智谱AI在开源仓库中,还提供了一个完整的All Tools Demo,开发者可以在本地拥有一个轻量级的清言平替。

图片

比如,先用网页搜索「马拉松的世界纪录」,然后用代码解释器去计算「跑步平均速度」。

图片

搜索世界纪录

图片

计算平均速度

All Tools还有非常多的组合,开发者可以自行去探索。

多模态比肩GPT-4V

除了文本模型,这次一并开源了多模态模型GLM-4V-9B。

最新模型采用了与CogVLM2相似的架构设计,能够处理高达1120 x 1120分辨率的输入,并通过降采样技术有效减少了token的开销。

与CogVLM的不同之处在于,GLM-4V-9B并没有通过引入额外的视觉专家来增加参数量,而是采用了直接混合文本和图片数据的方式进行训练。

这种训练方法使得GLM-4V-9B模型能够同时具备强大的文本和视觉处理能力,实现了真正的多模态学习。

图片

它能够以13B总参数激活量,超越了一众多模态模型,甚至比肩GPT-4V。

图片

不如看看,GLM-4V-9B在实际任务中的表现。

比如,让模型去识别T恤上的公式印花——麦克斯韦方程式。

你甚至,还可以追问关于方程组的细节,模型可以凭借自己的文本能力完成回答。

这从另一方面印证了,并没有因为引入多模态能力,而丧失模型原本的文本能力。

图片

在下面这个例子中,是截取清华大学网络学堂的一个网页截图,并要求模型翻译成HTML代码。

GLM-4V-9B就可以识别出其中元素,并翻译成相应的代码。

图片

整体来说,GLM-4-9B模型共有9.4B参数,是在10T的高质量多语言数据上,完成了预训练,几乎利用了所有网页数据。

其数据量是ChatGLM3-6B模型的3倍还要多。

与此同时,智谱AI采用了FP8精度进行高效的预训练并成功收敛,比起上一代模型,训练效率提升3.5倍。

由此,智谱AI将参数规模从6B扩展至9B,并将预训练计算量增加了5倍。

基于文本基座,打造的多模态模型GLM-4V-9B,完全融合了文本和视觉模型,并与GPT-4V不相上下。

图片

成立于2019年,智谱AI用了4年的时间从一家明星创业公司,跻身为国内头部AI独角兽。

一直以来,外界对智谱的印象是,清华系国家队,全面对标OpenAI技术领先,to B气质强烈。

智谱不仅在大模型的能力上向OpenAI看齐,而且在投资领域布局上也不遑多让,深受资本青睐。

图片

过去一年中,他们完成了3次基座大模型升级迭代,这次OpenDay 核心展示了面向AGI愿景的完整产品矩阵,透传出未来商业化的模式。

智谱AI正把MaaS商业模式提升到新的境界。MaaS平台2.0的诞生,将会进一步扩大智谱生态朋友圈。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1821745.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

神经网络字符分类

按照题目要求修改了多层感知机 题目将图片的每个点作为输入,其中大小为28*28,中间有两个大小为100的隐藏层,激活函数是relu,然后输出大小是10,激活函数是softmax 优化器是Adam,结合了AdaGrad和RMSProp算法…

六、高级路由交换技术

目录 一、Eth-trunk(以太通道或链路捆绑) 1.1、 链路聚合模式 1.2、链路选举规则(选举活跃和备份) 1.3、负载分担方式 1.4、配置流程 二、vlan聚合 三、MUX vlan(混合vlan) 四、QinQ 五、V…

一个顶级产品经理的自我修养,从掌控AI工具开始

前言 在数字化浪潮的推动下,人工智能(AI)技术的快速发展正深刻地改变着各行各业的运营模式与竞争格局。产品经理,作为连接用户需求与产品设计之间的桥梁,在这场变革中扮演着至关重要的角色。随着AI技术的广泛应用&…

实战计算机网络02——物理层

实战计算机网络02——物理层 1、物理层实现的功能2、数据与信号2.1 数据通信模型2.2 通信领域常用术语2.3 模拟信号和数字信号 3、信道和调制3.1 信道3.2 单工通信、半双工通信、全双工通信3.3 调制3.4 奈式准则3.5 香农定律 4、传输媒体4.1 导向传输媒体4.2 非导向传输媒体 5、…

二刷算法训练营Day30 | 回溯算法(6/6)

目录 详细布置: 1. 回溯总结 2. 332. 重新安排行程 3. 51. N 皇后 4. 37. 解数独 详细布置: 1. 回溯总结 回溯是递归的副产品,只要有递归就会有回溯,所以回溯法也经常和二叉树遍历,深度优先搜索混在一起&#x…

KafkaQ - 好用的 Kafka Linux 命令行可视化工具

软件效果前瞻 ~ 鉴于并没有在网上找到比较好的linux平台的kafka可视化工具,今天为大家介绍一下自己开发的在 Linux 平台上使用的可视化工具KafkaQ 虽然简陋,主要可以实现下面的这些功能: 1)查看当前topic的分片数量和副本数量 …

docker通过容器id查看运行命令

1、docker通过容器id查看运行命令 参考:https://blog.csdn.net/a772304419/article/details/138732138 docker inspect 运行镜像id“Cmd”: [ “–model”, “/qwen-7b”, “–port”, “10860”, “–max-model-len”, “4096”, “–trust-remote-code”, “–t…

LabVIEW 32位与64位版本比较分析:性能与兼容性详解

LabVIEW的32位和64位版本在功能、性能、兼容性和应用场景等方面存在差异。本文从系统要求、内存管理、性能、兼容性、驱动支持和开发维护等多个角度进行详细分析,帮助用户选择合适的版本。 一、系统要求 操作系统支持: 32位LabVIEW:可以在32位…

深入解析MySQL的层次化设计

一、基础架构 1.连接器 1.会先连接到这个数据库上,这时候接待你的就是连接器。连接器负责跟客户端建立连接、获取权限、维持和管理连接 2.用户密码连接成功之后,会从权限表中拿出你的权限,后续操作权限都依赖于此时拿出的权限,这就意味着当链…

springboot项目中使用 @Lazy 注解懒加载解决循环依赖问题,以及 @Lazy 标注顺序

场景: Caused by: org.springframework.beans.factory.BeanCurrentlyInCreationException: Error creating bean with name taskServiceImpl: Bean with name taskServiceImpl has been injected into other beans [groupServiceImpl] in its raw version as part…

Application Studio 学习笔记(1)

一、导航树 1、设置AAA的Page Type属性需设置为Tab(注意:有多个Tab类型Page时导航树会失效,并且设置为Tab后,该Page将不能编辑),并勾选Enable Navigation,其中AAA为导航树起始页的父页。 2、导航树起始页及其子页的Ta…

GPT4O给Qwen2生成的高考作文打分56分,从“小白”进阶技术大神的开发者基于国产GPU推理模型效果可还行?

OpenI启智社区上线的【芯动开源】首场活动-天数智芯挑战专场即将迎来最后一周的冲刺阶段,自2024年5月27日上线以来,这期间,我们见证了天数智芯通用GPU加速卡在适配AI模型方面的无限可能与开发者们开源精神的璀璨光辉。 在短短的两周时间里&a…

[Shell编程学习路线]——探讨Shell中变量的作用范围(export)

🏡作者主页:点击! 🛠️Shell编程专栏:点击! ⏰️创作时间:2024年6月14日10点14分 🀄️文章质量:95分 文章目录 ————前言———— 定义变量: 输出变…

django上课点名系统-计算机毕业设计源码03391

摘 要 随着现在网络的快速发展,网络的应用在各行各业当中它很快融入到了许多学校的眼球之中,他们利用网络来做这个签到点名的网站,随之就产生了“上课点名系统 ”,这样就让学生上课点名系统更加方便简单。 对于本上课点名系统的设…

App UI 风格打造独特体验

App UI 风格打造独特体验

Day07-06_13【CT】LeetCode手撕—1. 两数之和

目录 题目1-思路2- 实现⭐1. 两数之和——题解思路 3- ACM实现 题目 原题连接:1. 两数之和 1-思路 哈希表 利用哈希表存储 key 数组元素值 ——> value 数组下标遍历数组 2- 实现 ⭐1. 两数之和——题解思路 class Solution {public int[] twoSum(int[] nums…

maven archetype项目构架

1、设置环境变量 set MAVEN_HOMED:\SF\java\apache-maven-3.6.3 set path%path%;%MAVEN_HOME%\bin;2、制作archetype mvn -s "D:\SF\java\apache-maven-3.6.3\conf\settings.xml" archetype:create-from-project -DpackageNamecom.demo.esb-s:指定maven的setting文…

Github 2024-06-10开源项目周报 Top15

根据Github Trendings的统计,本周(2024-06-10统计)共有15个项目上榜。根据开发语言中项目的数量,汇总情况如下: 开发语言项目数量Python项目8Jupyter Notebook项目2Go项目2C++项目1Shell项目1Lua项目1JavaScript项目1MDX项目1C项目1HTML项目1Python - 100天从新手到大师 创建…

【elementui源码解析】如何实现自动渲染md文档-第三篇

目录 1.前言 2.webpack.demo.js 3.markdown文档 4.fence.js 1)tokens 2)::: 3) 5.containers.js 1)markdown-it-container 2)md.use() 3)代码逻辑 4)containers小结 6.congfig.js …

拿来做课设哈哈哈-“久坐提醒器”的网页应用

这篇文章将介绍一个名为“久坐提醒器”的网页应用,它通过HTML、CSS和JavaScript三种技术实现。下面是对这三种技术在实现该应用中的作用和代码的详细解析。 HTML:构建网页结构 HTML(HyperText Markup Language)是网页的基础结构…