“火山方舟”面向企业提供模型精调、评测、推理等全方位的平台服务(MaaS,即Model-as-a-Service),目前集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家AI科技公司及科研团队的大模型。
·这种模式一端连着大模型厂商,另一端则接着大模型的应用需求。如果这条路线成功,那么中间平台就能构建起一个完整生态,甚至成为唯一入口,这可能才是选择这条路线的厂商的终极目标。
随着生成式AI热潮兴起,一个新的价值链正在出现,主要分为六个类别:计算机硬件、云平台、基础模型、模型中心和机器学习操作(MLOps)、应用程序和服务,一眼看上去与传统的人工智能价值链非常相似,只有基础模型是新增的。
随着生成式AI热潮兴起,一个新的价值链正在出现,主要分为六个类别:计算机硬件、云平台、基础模型、模型中心和机器学习操作(MLOps)、应用程序和服务。 图片来源:麦肯锡
目前,AI基础模型似乎已成为第一轮竞争赛的“兵家必争之地”,百度、阿里巴巴、腾讯等原本占据优势地位的科技巨头纷纷推出自己的大模型,“百模大战”格局初现。而同为巨头的字节跳动,直到最近才有了新动作。
6月28日,字节跳动旗下火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等全方位的平台服务(MaaS,即Model-as-a-Service),目前集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家AI科技公司及科研团队的大模型,类似于为各行各业提供了一个“大模型商场”。
“选择合适你的大模型。”火山引擎总裁谭待讲解道,“在选择之前,首先需要明确自己的需求,并基于需求场景,制定可量化的评估指标。到底是关注模型的逻辑推理能力、文本生成能力,还是风险控制能力?有了量化的评估指标作为依据,就可以针对不同的模型进行全方位的能力测评,选择性价比最合适的。注意,并不一定是选效果最好的,而是性价比最合适的。因为在真实应用场景里,成本和收益是不可回避的问题。”
火山引擎智能算法负责人吴迪介绍,企业可以用统一的工作流对接多家大模型,对于复杂需求可设置高级参数、验证集、测试集等功能,再通过自动化和人工评估直观对比模型精调效果,在不同业务场景里还可灵活切换不同的模型,实现最具性价比的模型组合。
“卖点”:成本和数据安全
总结起来,整场发布会主要强调两个“卖点”:成本和数据安全。
吴迪称,国内大模型正在快速迭代,不同大模型在特定任务上各有千秋,企业不必急于绑定一家大模型,而是应该结合自身业务场景,综合评估使用效果和成本,在不同场景选用更具性价比的模型。
据国盛证券《ChatGPT需要多少算力》报告,GPT-3训练一次的成本约为140万美元,一些更大的大模型,训练成本介于200万美元到1400万美元之间。
“训练大模型很昂贵,但是从长期来看,模型的推理开销会超过训练开销。效果和成本的矛盾永远存在,降低推理成本会是大模型应用落地的重要因素。一个经过良好精调的中小规格模型,在特定工作上的表现可能不亚于通用的、巨大的基座模型,而推理成本可以降低到原来的十分之一。”吴迪说。
数据安全也是大模型落地应用中的核心话题。据网络安全公司Cyberhaven调查,至少有4%的员工将企业敏感数据输入ChatGPT,敏感数据占输入内容的比例高达11%。2023年初,三星公司在使用ChatGPT不到20天时,就发现其半导体设备相关机密数据被泄露,并连续发生3起类似事故。
在这点上,吴迪一方面介绍了“火山方舟”已上线的基于安全沙箱的大模型安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现模型的机密性、完整性和可用性,另一方面也表示正在探索基于英伟达新一代硬件支持的可信计算环境、基于联邦学习的数据资产分离等多种方式的安全互信计算方案。
在具体营收模式方面,吴迪表示,作为中间平台,火山会将资源供应给大模型提供方,供应内包含一定的IaaS层(Infrastructure as a Service,基础设施即服务)利润,大模型提供方刨除掉基本成本,叠加自身认为合理的利润,最终形成其大模型在火山方舟上的定价。而下游客户的支付成本包括了模型服务费与平台服务费,后者火山在相当长时间内都设置为零。
什么是MaaS?
火山引擎发布会中提到的商业模式MaaS是什么?
MaaS(模型即服务)是生成式AI最常见的商业模式之一,比如引起这一波生成式AI热潮的OpenAI将其GPT模型(ChatGPT背后的基础模型)授权给微软,以在其必应搜索引擎中使用。借助MaaS,公司可以通过云访问生成式AI模型,并使用它们来创建新的应用。
这种商业模式类似于当今大多数软件基于订阅的模式。MaaS的最大好处之一是它使公司可以访问最新的生成式AI模型,而无需投资从头开始构建这些模型所需的基础设施和资源。此外,MaaS产品(如OpenAI的GPT-3和谷歌的BERT)高度可定制。
资产管理公司Globalxetfs认为,我们最终可能会看到根据模型的使用情况收取增量费用的商业模式,类似目前在亚马逊云(AWS)或微软云(Azure)看到的情况。其被称为即用即付价模式,客户只需为他们使用的服务付费。它还允许模型提供商管理其成本结构(通过人工智能模型运行的每个查询都有相关成本,目前估计约为两到三美分),OpenAI的文本生成图像工具DALL-E目前实现了这种类型的定价结构。
终极目标:构建生态
火山引擎这种入局大模型的方式并非第一次出现,之前云厂商亚马逊云科技就有相关实践。4月,亚马逊推出Amazon Bedrock新服务,通过API(应用程序编程接口)可访问来自AI21 Labs、Anthropic、Stability AI和亚马逊自己的大模型。
美东时间6月28日,亚马逊云科技销售和营销高级副总裁马特·加曼 (Matt Garman)在采访中称,“针对金融服务客户优化的模型可能不是针对基因组数据优化的模型,也可能不是最适合电子商务或图像或任何其他事物的模型。也比如Stability AI对于图像来说是一个很好的模型,但对于文本来说却不是。可以通过一些测试判断模型A的性能是否优于模型B,然后自由选择模型组合或最适合的模型。”
这种模式一端连着大模型厂商,另一端则接着大模型的应用需求。如果这条路线成功,那么中间平台就能构建起一个完整生态,甚至成为唯一入口,这可能才是选择这条路线的厂商的终极目标。
在接受媒体采访时,谭待称,火山侧重于提供平台,提供安全、低成本的应用服务,目前仍坚持不做大模型。
谭待认为,未来的大模型市场将是一个百花齐放的多模型生态,在这个生态系统中,将同时并行存在几个少数的超大规模的大模型、多个中等规模的大模型和更多个行业的垂直模型,这是由安全信任、行业壁垒和成本因素共同决定。
中国科学技术信息研究所等机构发布的《中国人工智能大模型地图研究报告》显示,截至今年5月,国内已公开披露的大模型数量达到79个。
“另一方面,企业尤其是行业头部企业,未来自身对于大模型的应用将会是‘1 +N’的模式,即企业通过自研或与第三方模型服务商的深度合作,形成自身的1个主力模型。在这个主力模型之外,在不同的场景中,企业还会同时应用N个外部模型。”谭待说。
麦肯锡在《探索生成式人工智能价值链中的机会》一文中表示,生成式人工智能系统的基础比大多数传统人工智能系统要复杂得多。因此,与交付相关的时间、成本和专业知识给整个价值链的新进入者和小公司带来了巨大的阻力。“虽然整个领域都存在价值,但我们的研究表明,在可预见的未来,许多领域将继续由科技巨头和现有企业主导。”报告称。