解锁生成式 AI 的力量:a16z 提供的 16 个企业指南

news2024/11/18 2:29:39

企业构建和采购生成式AI方面的16项改变

   

生成式 AI 领域趋势洞察:
企业构建和采购生成式 AI 的方式正在发生重大转变,具体表现在:
* 专注于可信度和安全性:75% 的企业将信任和安全性视为关键因素。
* 优先考虑可扩展性和灵活性:65% 的企业寻求具有高可扩展性和灵活性的解决方案。
* 投资于自动化和效率:50% 的企业利用生成式 AI 来提高自动化和效率。
* 拥抱定制化和个性化:45% 的企业采用生成式 AI 提供定制化体验。
* 探索新用例和创新:40% 的企业探索生成式 AI 在新领域的应用,推动创新。

2023年,生成式AI (Generative AI) 风靡消费市场,消费者支出迅速突破十亿美元大关,创下了记录速度。我们预计,到了2024年,企业市场的收入机会将是消费者市场的数倍。去年,消费者们沉浸在与AI伴侣聊天或用 Diffusion 模型创作图片和视频的乐趣中,而大多数企业对生成式AI的运用似乎还停留在少数显而易见的应用场景,并把包装过的“套壳GPT(GPT-wrapper)”产品作为新的 SKUs 推出。一些怀疑论者开始质疑生成式AI是否真的能在企业级别上扩展。

我们难道就困在那三个应用场景里吗?这些初创企业真的能盈利吗?这一切只是炒作吗?过去几个月,我们与数十位《财富》世界500强和顶尖企业领袖进行了对话,并对另外70多位进行了调研,目的是了解他们如何利用、购买以及为生成式AI进行预算规划。让我们震惊的是,这些领袖在过去六个月对生成式AI的资源配置和态度改变之大。尽管他们在部署生成式AI时仍有一些保留,但几乎将其预算增加了两倍,扩大了在小型开源模型上部署的应用场景,并将更多工作负载从初步实验阶段转移到了生产环境中。对于创业者而言,这是一个巨大的机遇。我们认为,那些能够做到 1) 针对企业AI中心战略计划构建产品同时预见到它们的潜在痛点,2) 从服务为主转变为构建可扩展产品的AI初创企业将抓住这波新的投资浪潮,并获得重要的市场份额。和过去一样,构建和销售企业级产品要求深入理解客户的预算、关注点和规划路径。为了帮助创业者深刻理解企业领导者在部署生成式AI时的决策过程,以及为AI高管提供一个了解其他领导者如何应对共同挑战的视角,我们总结了最近与这些领导者交流中的16个关键思考点,这些思考点围绕资源配置、模型选择以及应用场景展开。

资源配置:预算正大幅增加,并将持续下去

1、生成式AI的预算正在飙升

2023年,企业在生成式AI基础模型API、自我托管和模型微调方面的平均支出飙升至700万美元。令人鼓舞的是,近乎所有受访企业都在初步实验中看到了希望,并计划在2024年将支出增加2-5倍,推动生产性工作负载部署。LLM领域尤为受关注,支出可观。

2、领导们开始把AI投资重新分配到常规软件预算中

去年,企业在生成式AI上的支出主要来自“创新”预算和其他一般为一次性的资金池。然而,在2024年,许多领导者开始将这些资金重新分配到更为长期的软件预算项目中;不到四分之一的领导者表示,今年的生成式AI支出将来自创新预算。在更小的规模上,我们也见证了一些领导者将生成式AI预算用于人力成本节省,尤其是在客户服务领域。我们认为,如果这一趋势持续,未来生成式AI的支出将显著增加。有一家公司利用大语言模型驱动的客户服务为每次通话节省约6美元,总共节约了约90%的成本,作为他们将投资于生成式AI增加八倍的理由。以下是这些组织如何分配大语言模型(LLM)支出的整体概述:280e24f72292f838e0e2ffcc723a9f18.jpeg企业大语言模型的预算分配

3、衡量投资回报率(ROI)既是一门艺术也是一门科学

目前,企业领导者主要通过AI带来的生产力增长来衡量投资回报率(ROI)。尽管他们依赖净推荐值()和客户满意度这些良好的替代指标,但他们也在寻求更具体的方法来衡量回报,比如收入增长、成本节约、效率提升和准确性提高,这些都取决于他们的具体应用场景。短期来看,领导者们还在推广这项技术,并试图找出最佳的指标来量化收益,但在未来2到3年内,ROI的重要性将日益增加。虽然正在寻找这个问题的答案,许多领导者凭借信任,相信他们的员工说自己能更有效地使用时间。eac7132d2f8af77eaf43742320bd38b4.jpeg企业如何衡量投资回报率(ROI)

4、实施和扩展生成式AI需要适当的技术人才,而目前许多企业内部并没有这些人才

仅有模型提供者的API接入权限远远不足以在大规模上构建和部署生成式AI解决方案。这需要高度专业化的人才来实施、维护和扩展所需的计算基础设施。在 2023 年,单是实施阶段就占据了2023年AI支出的最大比例之一,在某些情况下,它甚至是最大的一笔支出。一位高管提到,“大语言模型(LLMs)的成本可能只占构建应用场景成本的四分之一”,开发成本占据了大头。为了帮助企业部署并运行他们的模型,基础模型提供商提供了并且仍在提供专业服务,这通常与定制模型开发有关。我们估计,这在2023年为这些公司创造了一大笔收入,并且,除了性能外,这也是企业选择某些模型提供者的关键原因之一。

由于在企业中找到合适的生成式AI人才非常困难,那些提供工具使得将生成式AI开发引入企业内部变得更容易的初创公司可能会得到更快的采纳。

模型:企业正在向多模型、开源的新时代迈进

5、多模型的未来

仅仅半年前,大部分企业还在试验1个(通常是OpenAI的)或至多2个模型。而今天,当我们与企业领导者对话时,发现他们正在测试——在一些情况下,甚至已经在生产中使用——多个模型。这一策略让他们能够 1) 根据性能、规模和成本来为不同的用例量身定制,2) 避免对单一供应商的依赖,3) 并迅速把握住这个快速演进领域中的最新进展。尤其是最后一点,对领导者来说极其重要,因为模型的排行是不断变化的,企业热切希望结合最先进的当前模型和开源模型来取得最佳效果。d89135ad8a1204564df43e6101de9efb.jpeg企业采用大模型的数量我们可能会见证更多模型的涌现。如下表所示,根据调查数据,企业领导者报告了在测试中的多个模型,这预示着将会有更多模型被用来推进生产工作负载。对于生产环境的用例,正如预期,OpenAI仍然拥有主导的市场份额。91baa38ca72fc989172589613efac098.jpeg大语言模型供应商企业

6、开源正迎来爆炸式增长

这是过去六个月内行业景观中最令人意外的变化之一。我们估计2023年80%-90%的市场是闭源的,大多数份额属于OpenAI。

然而,46%的调查参与者表示,他们倾向或强烈倾向于在2024年采用开源模型。在访谈中,近60%的AI领袖表达了他们对增加开源使用的兴趣,或在微调后的开源模型性能大致与闭源模型相当时进行切换。因此,从2024年开始,企业预计将显著向开源模型转移,一些企业明确目标是实现50/50的闭源与开源比例——与2023年的80%闭源/20%开源比例相比,这是一个显著的提升。5dff87fe3d53919b1df36e1696229255.jpeg企业对2024年开源使用的期望

7、尽管成本对开源的吸引力有一定影响,但控制和定制化作为选择的关键标准却更为重要

在开源技术选择中,保障数据安全、理解模型结果的控制权至关重要,定制化能力可针对特定用例进行微调。
企业重视开源的原因:
* 控制权优先:安全和可解释性比成本更重要。
* 附加价值:生成式 AI 创造的价值远超其成本。
* 获取准确答案:企业愿意为准确的信息付费。

8、对控制权的需求源自对敏感应用场景和企业数据安全的关注

面对监管和数据安全担忧,企业对与闭源模型供应商共享专有数据犹疑不定。部分企业选择自托管开源模型,而其他企业则优先考虑模型安全性,选择支持虚拟私有云 (VPC) 集成的模型。

9、领导者们更倾向于通过微调来定制化模型,而不是从头开始构建

2024年LLM定制趋势:
面对开源模型的兴起,企业不再专注于从头训练LLM。相反,他们转向了更实用的方法:
* 检索增强生成(RAG):利用预训练的模型从大量数据中检索相关信息,再由LLM生成文本。
* 微调:对现有开源LLM进行针对性调整,以满足特定行业或应用程序的需求。

10、在模型购买决策中,云服务仍然发挥着重要作用

2023年,许多企业选择通过其现有的云服务提供商(CSP)购买模型,这主要是出于数据安全的考虑——领导者们更担心闭源模型可能对他们的数据处理不当,而不是云服务提供商——同时也是为了避免复杂的采购程序。2024年,这一情况依旧,这意味着选择云服务提供商和首选模型之间有很高的关联性:比如,Azure用户通常偏好OpenAI,而Amazon用户则更倾向于选择Anthropic或Cohere。如下图所示,72%通过API接入模型的企业中,有超过一半是使用其云服务提供商托管的模型。(值得注意的是,超过四分之一的企业选择自托管,这很可能是为了能够运行开源模型。)01d066e7b94c74d60d6507f72c4dadd2.jpeg企业如何接入大语言模型

11、客户仍然注重市场上的早期功能

对于选择 AI 模型,领导者重视推理能力、可靠性和便捷获取性。此外,特定特征也是决定因素:
* Anthropic:200K 上下文窗口
* Cohere:领先的微调功能

12、尽管如此,大多数企业认为模型性能正在趋于一致

虽然技术社区很多人专注于将模型性能与公开的基准相比较,但企业领导者更关注于将微调后的开源模型和微调后的闭源模型的性能与自己内部的基准集进行比较。有趣的是,尽管闭源模型在外部基准测试中通常表现更优,企业领导者还是给予了开源模型相对较高(在某些情况下更高)的NPS评分,因为它们更易于针对特定用例进行微调。有公司发现,“经过微调后,Mistral和Llama的性能几乎与OpenAI相当,但成本却低得多。”按这个标准来看,模型性能的收敛速度比我们预期的还要快,这为领导者们提供了更广泛的、非常有能力的模型选择。2fb0feae6753e1a71de3d167d08ab6bc.jpeg企业领导者如何评价模型性能e1f4084c4d22f42c917e1f7f3f82ff65.jpeg大语言模型NPS企业平均值

13、为选择性优化

现代企业采用敏捷模型,通过 API 切换在不同模型间无缝转换。预先测试 prompts 确保即时变更,而“模型花园”简化了按需部署。这种策略源于云计算时代减少供应商依赖的经验,以及对市场快速变化的适应性需求。企业不再局限于单一供应商,而是灵活切换以满足不断变化的业务需求。

使用案例:更多迁移到生产环境

14、企业正在构建,而不是购买应用程序——至少目前是这样

企业主要专注于内部构建应用程序,原因之一是缺乏经过实战检验的、能够领先市场的企业AI应用程序。毕竟,像这样的应用程序还没有“魔力象限”(至少目前没有!)。基础模型还通过提供API,使企业构建自己的AI应用程序变得前所未有地容易。

企业现在正在构建自己版本的熟悉用例——如客户支持和内部聊天机器人——同时也在尝试更多新颖的用例,如编写消费品配方、缩小分子发现的范围,以及制作销售推荐。关于“套皮GPT(GPT wrappers)”的差异有限——或者说是为LLM(如文档总结)的知名输出构建熟悉界面(例如,聊天机器人)的初创公司——已有很多讨论;我们认为这些将会遇到困难的一个原因是AI进一步降低了企业内部构建类似应用的门槛。

然而,对于更多面向企业的AI应用进入市场时这一情况是否会改变,目前尚无定论。虽然一位领导者指出,尽管他们在内部构建了许多用例,但他们乐观地认为“将会有新工具出现”,并且更愿意“使用最好的”。其他人则认为生成式AI越来越成为一种“战略性工具”,使公司能够将某些功能内部化,而不是像传统上那样依赖外部供应商。

鉴于这些动态,我们相信,那些能够超越“LLM + UI”公式,并根本性地重新思考企业基础工作流程或帮助企业更好地利用自己的专有数据的应用程序,在这个市场上表现尤为出色。

15、企业对内部用例感到兴奋,但对外部用例保持更多谨慎

这是因为对生成式AI的两个主要担忧在企业中仍然存在:

1)潜在的幻觉和安全问题;

2)部署生成式AI,特别是进入敏感的消费者领域(例如,医疗保健和金融服务)时的公关问题。过去一年中最受欢迎的用例要么专注于内部生产力,要么在到达客户之前经过人工处理——如编码协助、客户支持和市场营销。

如下图所示,这些用例在2024年的企业中仍然占主导地位,企业将完全内部的用例(如文本摘要和知识管理,例如,内部聊天机器人)推向生产的比例远高于敏感的人机协作用例(如合同审查)或面向客户的用例(如外部聊天机器人或推荐算法)。公司急于避免像加拿大航空的客户服务事件那样的生成式AI失误带来的后果。由于这些担忧对大多数企业来说仍然很重要,因此,构建可以帮助控制这些问题的工具的初创公司可能会得到显著的采用。cf2688516c55a07d62a4b0009c22ec1c.jpeg企业愿意将大语言模型用于不同用例的程度16、市场总机会的规模:巨大且快速增长

人工智能模型 API 和微调支出预计到 2024 年底将飙升至超过 50 亿美元的年化营收,其中企业支出将成为主要驱动力。

根据我们的计算,我们估计模型API(包括微调)市场在2023年底的营收运转率约为15亿至20亿美元,包括通过Azure对OpenAI模型的支出。鉴于整体市场的预期增长和企业的明确迹象,仅这一领域的支出就将增长到至少50亿美元的营收运转率,且有显著的上行潜力。

正如我们所讨论的,企业已经将生成式AI部署优先级提高,增加预算并将其重新分配到标准软件线,优化了跨不同模型的用例,并计划在2024年将更多工作负载推向生产环境,这意味着他们很可能推动这一增长的重要部分。在过去的6个月中,企业已经发出了自上而下的指令,寻找并部署生成式AI解决方案。过去需要一年以上才能完成的交易现在在2到3个月内就被推进,而且这些交易的规模比过去大得多。

虽然这篇文章专注于基础模型层,但我们也相信,这一机遇在企业中延伸到工作栈的其他部分——从帮助微调的工具,到模型服务,再到应用程序构建,以及专为AI原生应用程序设计。我们正处于企业中生成式AI的一个拐点,我们很高兴能与服务于这个动态且不断增长市场的下一代公司合作。

 

-对此,您有什么看法见解?-

-欢迎在评论区留言探讨和分享。-

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1594499.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Go语言入门|包、关键字和标识符

目录 Go语言 包文件 规则 关键字 规则 标识符 规则 预定义标识符 Go语言 Go语言是一种静态类型、编译型和并发型的编程语言,由Google开发。Go的源代码文件以.go为扩展名,文件名通常与包名保持一致。一个Go文件可以包含多个顶级声明,…

WXML模板语法-条件与列表渲染

wx:if 在小程序中&#xff0c;使用wx:if"{{condition}}"来判断是否需要渲染该代码 也可以用wx:elif和wx:else来添加else判断 <!--pages/ifIndex/ifindex.wxml--> <view wx:if"{{type 1}}">男</view> <view wx:elif"{{type …

基于ICEEMDAN-SVD的信号去噪算法

一、代码原理 ICEEMDAN-SVD算法是一种结合了Improved Complete Ensemble Empirical Mode Decomposition with Adaptive Noise (ICEEMDAN) 和奇异值分解 (SVD) 的信号去噪方法。这种算法结合了两种先进的信号处理技术&#xff0c;旨在提高信号去噪的效果。以下是该算法的基本原…

深入理解信号上升沿与带宽的关系

信号的上升时间&#xff0c;对于理解信号完整性问题至关重要&#xff0c;高速pcb设计中的绝大多数问题都和它有关&#xff0c;很多信号完整性问题都是由信号上升时间短引起的&#xff0c;你必须对他足够重视。 信号上升时间并不是信号从低电平上升到高电平所经历的时间&#xf…

Ubuntu-22.04安装KVM虚拟机并安装Windows10

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 前言一、KVM是什么&#xff1f;二、安装步骤1.检查虚拟化2.查看KVM虚拟化3.安装KVM4.启用后台进程5.添加用户组6.重启电脑 三、使用步骤1.添加虚拟机2.配置虚拟机3.…

数据可视化高级技术Echarts(堆叠柱状图)

目录 一.如何实现 二.代码展示 1.stack名称相同&#xff08;直接堆叠&#xff09; 2. stack名称不相同&#xff08;相同的堆叠&#xff0c;不同的新生成一列&#xff09; 一.如何实现 数据堆叠&#xff0c;同个类目轴上系列配置相同的 stack 值可以堆叠放置。即在series中…

Rust取代C++? 保守了!关于未来的讨论

当各种平台在大肆讨论rust即将取代C/C的时候&#xff0c;已经有不少人意识到这种讨论是聒噪而无聊的。笔者和老师们通过周末茶会的讨论&#xff0c;认为现今世界常见的大多数编程语言都会在50-80年内被AI取代&#xff0c;同时供人类审计而诞生的“审计语言”会兴起。届时计算机…

LeetCode刷题记(三):61~90题

61. 旋转链表 给你一个链表的头节点 head &#xff0c;旋转链表&#xff0c;将链表每个节点向右移动 k 个位置。 示例 1&#xff1a; 输入&#xff1a;head [1,2,3,4,5], k 2 输出&#xff1a;[4,5,1,2,3]示例 2&#xff1a; 输入&#xff1a;head [0,1,2], k 4 输出&…

虚拟机VMware的下载、注册码(Mac与Windows)

1. 虚拟机的下载 windows 版的虚拟机叫 VMware Workstation mac版的虚拟机叫 VMware Fusion 官网下载地址: window 下载地址 https://www.vmware.com/content/vmware/vmware-published-sites/us/products/workstation-pro.html mac 下载地址 https://www.vmware.com/prod…

【ELFK】Filebeat+ELK 部署

FilebeatELK 部署 在 Filebeat 节点上操作 环境准备 Node1节点&#xff08;2C/4G&#xff09;&#xff1a;node1/192.168.67.11 Elasticsearch Kibana Node2节点&#xff08;2C/4G&#xff09;&#xff1a;node2/192.168.67.12 Elasticsearch Apache节点&…

解放双手,批量绕过403

将dirsearch扫描出来的结果复制到url.txt&#xff0c;如下所示 url.txt [21:18:16] 502 - 0B - /var/log/exception.log [21:18:21] 502 - 0B - /WEB-INF/jetty-env.xml [21:18:22] 502 - 0B - /WEB-INF/weblogic.xml [21:18:27] 502 - 0B - /wp-json/wp/v2/u…

【域适应】基于域分离网络的MNIST数据10分类典型方法实现

关于 大规模数据收集和注释的成本通常使得将机器学习算法应用于新任务或数据集变得异常昂贵。规避这一成本的一种方法是在合成数据上训练模型&#xff0c;其中自动提供注释。尽管它们很有吸引力&#xff0c;但此类模型通常无法从合成图像推广到真实图像&#xff0c;因此需要域…

Pandas相比Excel的优势是哪些?

熟悉Pandas的同学会知道&#xff0c;Pandas相当于Python中的Excel&#xff0c;都是基于二维表的进行数据处理分析&#xff0c;不同的是&#xff0c;Pandas基于代码操作数据&#xff0c;Excel是图形化的分析工具。 不少人会问Excel比Pandas更简单&#xff0c;为什么还要学习Pan…

SSL Pinning之双向认证

双向认证处理流程 概述获取证书逆向app 获取证书的KeyStore的 key通过jadx 反编译 app 获取证书&#xff1a;frida hook 证书转换命令行转换portecle 工具使用 charles 配置 p12 格式证书 概述 本篇只介绍怎么解决ssl pinning&#xff0c; 不讲ssl/tls 原理。 为了解决ssl pinn…

【Java】内存可见性问题是什么?

文章目录 内存模型内存可见性解决方案volatile 内存模型 什么是JAVA 内存模型&#xff1f; Java Memory Model (JAVA 内存模型&#xff09;是描述线程之间如何通过内存(memory)来进行交互。 具体说来&#xff0c; JVM中存在一个主存区&#xff08;Main Memory或Java Heap Mem…

MySQL优化慢SQL的6种方式

⛰️个人主页: 蒾酒 &#x1f525;系列专栏&#xff1a;《mysql经验总结》 &#x1f30a;山高路远&#xff0c;行路漫漫&#xff0c;终有归途 目录 写在前面 优化思路 优化方法 1.避免查询不必要的列 2.分页优化 3.索引优化 4.JOIN优化 5.排序优化 6.UNION 优化…

基于51单片机多功能洗衣机控制(强洗弱洗漂洗)设计( proteus仿真+程序+设计报告+原理图+讲解视频)

基于51单片机多功能洗衣机控制(强洗弱洗漂洗)设计( proteus仿真程序设计报告原理图讲解视频&#xff09; 多功能洗衣机控制-强洗弱洗漂洗 1. 主要功能&#xff1a;2. 讲解视频&#xff1a;3. 仿真设计4. 程序代码5. 设计报告6. 原理图7. 设计资料内容清单资料下载链接&#xf…

Element-UI 自定义-下拉框选择年份

1.实现效果 场景表达&#xff1a; 默认展示当年的年份&#xff0c;默认展示前7年的年份 2.实现思路 创建一个新的Vue组件。 使用<select>元素和v-for指令来渲染年份下拉列表。 使用v-model来绑定选中的年份值。 3.实现代码展示 <template><div><el-…

数学:人工智能学习之路上的“拦路虎”及其背后的奥秘

在人工智能的浪潮席卷全球的今天&#xff0c;越来越多的人开始涉足这一领域&#xff0c;以期掌握其核心技术&#xff0c;为未来的科技发展贡献力量。然而&#xff0c;在学习的道路上&#xff0c;许多人却遇到了一个不小的挑战——数学。为何数学会成为学习人工智能的“拦路虎”…

多波长,无限可能:探索波分复用的前沿 ✨

&#x1f331;当我们谈论光纤通信时&#xff0c;波分复用是一个不可忽视的关键词。它不仅改变了通信的速度和容量&#xff0c;更是连接数字世界的一座隐形桥梁。让我们深入了解这项技术的精髓。 &#x1f4da; 目录 ❓什么是WDM波分复用&#xff1f;以及WDM工作原理&#x1f5…