ChatGPT背后的经济账

news2024/11/28 16:44:59

29e0785e99cd6de1511a2ae59a373a3a.jpeg

ChatGPT能否取代Google、百度这样的传统搜索引擎?为什么中国不能很快做出ChatGPT?当前,对这些问题的探讨大多囿于大型语言模型(LLM)的技术可行性,忽略或者非常粗糙地估计了实现这些目标背后的经济成本,从而造成对LLM的开发和应用偏离实际的误判。

本文作者从经济学切入,详细推导了类ChatGPT模型搜索的成本、训练GPT-3以及绘制LLM成本轨迹的通用框架,为探讨LLM成本结构和其未来发展提供了可贵的参考视角。

作者|Sunyan

翻译|杨婷、徐佳渝、贾川

重点概览:

  • LLM驱动的搜索已经在经济上可行:粗略估计,在现有搜索成本结构的基础上,高性能LLM驱动搜索的成本约占当下预估广告收入/查询的15%。

  • 但经济可行并不意味着经济合理:LLM驱动搜索的单位经济性是有利可图的,但对于拥有超1000亿美元搜索收入的现有搜索引擎来说,添加此功能可能意味着超100亿美元的额外成本。

  • 其他新兴的LLM驱动业务利润很高:比如Jasper.ai使用LLM生成文案,很可能有SaaS服务那样的毛利率(超75%)。

  • 对于大公司而言,训练LLM(即使是从头开始)的成本并不高:如今,在公有云中训练GPT-3仅需花费约140万美元,即使是像PaLM这样最先进的模型也只需花费约1120万美元。

  • LLM的成本可能会显著下降:自GPT-3发布的两年半时间里,与GPT-3性能相当的模型的训练和推理成本下降了约80%。

  • 数据是LLM性能的新瓶颈:与增加高质量训练数据集的大小相比,增加模型参数的数量能获得的边际收益越来越小。

1

动机

LLM的惊人表现引发了人们的广泛猜想,这些猜想主要包括LLM可能引发的新兴商业模式和对现有模式的影响。

搜索是一个有趣的机会,2021年,仅谷歌就从搜索相关的广告中获得了超1000亿美元的收入[1]。ChatGPT(一个使用LLM的聊天机器人,它可以生成高质量的答案,以回答类似于搜索的查询)的“病毒性”传播已经引发了许多关于搜索领域潜在影响的思考,其中一个就是LLM如今的经济可行性:

  • 一位声称是谷歌员工的人在HackerNews上表示,要想实施由LLM驱动的搜索,需要先将其成本降低10倍。

  • 与此同时,微软预计将在3月份推出LLM版本的Bing[3],而搜索初创公司如You.com已经将该技术嵌入到了他们的产品之中[4]。

  • 最近,《纽约时报》报道,谷歌将在今年推出带有聊天机器人功能的搜索引擎[5]。

更广泛的问题是:将LLM纳入当前产品和新产品的经济可行性如何?在本文中,我们梳理了当今LLM的成本结构,并分析其未来可能的发展趋势。

2

重温LLM工作原理

尽管后续章节的技术性更强,但这篇文章对机器学习熟悉程度不做要求,即使不熟悉这方面内容的人也可以放心阅读。为了说明LLM的特殊之处,现做一个简要复习。

语言模型在给定上下文的情况下,对可能输出的token作出预测:

2e16d22bb5f3a8022cb6d58c03fe7acd.jpeg

自回归语言模型(Autoregressive Language Model)输入上下文和输出内容的图示(在实践中,token通常是子词:即“happy”可能被分解为两个token,例如“hap”、“-py”)

为了生成文本,语言模型根据输出token的概率重复采样新token。例如,在像ChatGPT这样的服务中,模型从一个初始prompt开始,该prompt将用户的查询作为上下文,并生成token来构建响应(response)。新token生成后,会被附加到上下文窗口以提示下一次迭代。

语言模型已经存在了几十年。当下LLM性能的背后是数十亿参数的高效深度神经网络(DNN)驱动。参数是用于训练和预测的矩阵权重,浮点运算(FLOPS)的数值通常与参数数量(parameter count)成比例。这些运算是在针对矩阵运算优化的处理器上计算的,例如GPU、TPU和其他专用芯片。

随着LLM参数量呈指数增长,这些操作需要更多的计算资源,这是导致LLM成本增加的潜在原因。

3

LLM驱动搜索的成本

本节,我们将估算运行LLM驱动搜索引擎的成本。应该如何实施这样的搜索引擎仍是一个活跃的研究领域,我们这里主要考虑两种方法来评估提供此类服务的成本范围:

  • ChatGPT Equivalent:一个在庞大训练数据集上训练的LLM,它会将训练期间的知识存储到模型参数中。在推理过程中(使用模型生成输出),LLM无法访问外部知识[6]。

    • 这种方法有如下两大缺点:

      • 容易“幻想”事实。

      • 模型知识滞后,仅包含最后训练日期之前的可用信息。

  • 2-Stage Search Summarizer:一种架构上类似的LLM,可以在推理时访问Google或Bing等传统搜索引擎。在这种方法的第一阶段,我们通过搜索引擎运行查询以检索前K个结果。在第二阶段,通过LLM运行每个结果以生成K个响应,该模型再将得分最高的响应返回给用户[7]。

    • 相比ChatGPT Equivalent,这种方法的优点是:

      • 能够从检索到的搜索结果中引用其来源。

      • 能获取最新信息。

然而,对于相同参数数量的LLM,这种方法需要更高的计算成本。使用这种方法的成本也增加了搜索引擎的现有成本,因为我们在现有搜索引擎的结果上增加了LLM。

一阶近似:基础模型API

最直接的成本估算方法是参考市场上现有基础模型API的标价,这些服务的定价包括成本的溢价部分,这部分是供应商的利润来源。一个代表性的服务是OpenAI,它提供基于LLM的文本生成服务。

OpenAI的Davinci API由GPT-3的1750亿参数版本提供支持,与支持ChatGPT的GPT-3.5模型具有相同的参数数量[8] 。现在用该模型进行推理的价格约为0.02美元/750个单词(0.02美元/1000个token,其中1000token约等于750个单词);用于计算定价的单词总数包括输入和输出[9]。

f12116b85fff5eedb0ee405f6a1eb1a1.jpeg

按模型功能划分的基础模型API定价 (OpenAI)

我们这里做了一些简单假设来估计将支付给OpenAI的搜索服务费用:

  • 在ChatGPT equivalent的实现中,我们假设该服务平均针对50字的prompt生成400字的响应。为了产生更高质量的结果,我们还假设模型对每个查询采样5个响应,从中选择最佳响应。因此:

47d01ee9ae05ed89dbcc196082528487.jpeg

在2-Stage Search Summarizer的实现中,响应生成过程是相似的。然而:

    • 提示明显更长,因为它同时包含查询和搜索结果中的相关部分

    • 为每K个搜索结果生成一个单独的LLM响应

  • 假设K = 10并且搜索结果中的每个相关部分平均为1000个单词:

68d342192f03f63def736bfe0c64818d.jpeg

假设优化的缓存命中率为30%(谷歌历史搜索缓存命中率的下限[10])和OpenAI云服务的毛利率为75%(与典型的SaaS服务一致),我们的一阶估计意味着:

494708a4043fd39742d313c899ffccdd.jpeg

按照数量级,ChatGPT Equivalent服务的预计云计算成本为0.010美元/次,与公众评论一致:

c7736767266e383071d822cec4cf1982.jpeg

OpenAI首席执行官Sam Altman谈ChatGPT每次聊天的成本([推特](https://twitter.com/sama/status/1599671496636780546?lang=en)

鉴于ChatGPT Equivalent的上述缺点(即幻想事实、模型信息陈旧),在实际操作中,LLM驱动搜索引擎的开发者更可能部署2-Stage Search Summarizer变体。

2012年,谷歌搜索主管表示,其搜索引擎每月处理的搜索次数达1000亿次[11]。世界银行数据显示:全球互联网普及率已从2012年的34%上升到了2020年的60%[12]。假设搜索量按比例增长,则预计其年均搜索量将达2.1万亿次,与搜索相关的收入将达约1000亿美元[13],平均每次搜索的收入为0.048美元。

换句话说,2-Stage Search Summarizer的查询成本为0.066美元/次,约为每次查询收入0.048美元的1.4倍。

  • 通过以下优化,预估成本大约会降至原来的1/4:1、量化(使用较低精度的数据类型) 2、知识蒸馏(通过学习较大的模型去训练一个较小的模型) 3、训练更小的“计算优化”模型,该模型具有相同的性能(稍后将对此展开更详细的讨论)

  • 假设云计算的毛利率约为50%,与依赖云服务提供商相比,运行自建(内部)基础设施(infrastructure in-house)会使成本降低至当前的1/2。

综合以上改进,降低至原有成本的1/8之后,在搜索中融入高性能LLM的成本大约占据当前查询收入的15%(现有的基础设施成本除外)。(注:成本最低可降至 0.066 美元/次 * 1/4 * 1/2, 约定于0.008美元,因此大约占每次查询收入 0.048 美元的 15%)

深度解析:云计算成本

如今,SOTA大型语言模型通常会用到可比较的模型架构(最常见的是仅包含解码器的Transformer模型),在推理过程中每个token的计算成本(以FLOPs为指标)约为2N,其中N为模型参数数量(model parameter count)[14]。

目前,NVIDIA A100是AWS最具成本效益的GPU选择,若预定1年使用该GPU,拥有8个A100的AWS P4实例的有效时薪(effective hourly rate)将达19.22美元。[15]每个A100提供峰值312 TFLOPS(万亿次浮点数/秒)FP16/FP32 混合精度吞吐量,这是LLM训练和推理的关键指标[16]。FP16/FP32混合精度是指以16位格式(FP16)执行操作,而以32位格式(FP32)存储信息。由于FP16的开销较低,混合精度不仅支持更高的FLOPS吞吐量,而且保持精确结果所需的数值稳定性也会保持不变[17]。

假设模型的FLOPS利用率为21.3%,与训练期间的GPT-3保持一致(虽然最近越来越多的模型效率得以提升,但其FLOPS利用率对于低延迟推理而言仍充满挑战)[18]。因此,对于像GPT-3这样拥有1750亿参数的模型:

7777f0bea2427338381b94ac80c1d4a0.jpeg

我们也应用了基于GCP TPU v4定价( GCP TPU v4 pricing)相同的计算方法,并得到了相似的结果[19]:

b8bb7d850edbc85a3ca340d00502b7f8.jpeg

预估GPT-3通过云服务提供商 (AWS, GCP)每处理1000个token所需的推理成本

OpenAI的API定价为0.02美元/1000词,但我们估计其成本约为0.0035美元/1000词,占定价的20%左右。这就意味着:对于一台一直运行的机器而言,其毛利率约为80%。这一估算与我们之前设想的75%毛利率大致相同,进而为ChatGPT Equivalent和2-Stage Search Summarizer搜索成本估算提供了合理性验证(sanity check)。

4

训练成本如何?

另一个热门话题是GPT-3(拥有1750亿参数)或最新的LLM(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM)的训练成本。基于参数数量和token数量,我们构建了一个用于估算计算成本的框架,虽然稍作修改,但同样适用于此:

  • 每个token的训练成本通常约为6N(而推理成本约为2N),其中N是LLM的参数数量[20]

  • 假设在训练过程中,模型的FLOPS利用率为46.2% (而在之前的推理过程中,模型的FLOPS利用率约为21.3%),与在TPU v4芯片上进行训练的PaLM模型(拥有5400亿参数)一致[21]。

1750亿参数模型的GPT-3是在3000亿token上进行训练的。谷歌使用了GCP TPU v4芯片来训练PaLM模型,若我们现在也像谷歌那样做,那么如今的训练成本仅为140万美元左右。

d27e84bf92c88e5752230582bd0227ce.jpeg

此外,我们还将该框架应用到一些更大的LLM模型中,以了解其训练成本。

c9144be29ee534c0f8a8706da6ab1ef7.jpeg

预估LLM在GCP TPU v4芯片上的训练成本

5

绘制成本轨迹的通用框架

为了推导LLM的推理成本/训练成本,我们总结了如下框架:

c3b3e7ffe68a3ab3eb6d404ae987faec.jpeg

密集激活纯解码器LLM模型Transformer(Densely Activated Decoder-Only Transformer LLMs)的推理成本和训练成本(其中“N”是模型参数数量,“processor”是指TPU、GPU或其他张量处理加速器)

因此,我们假设LLM的架构相似,那么推理成本和训练成本将根据上述变量的变化而变化。虽然我们会详细考虑每个变量,但是以下部分才是关键点:

自2020年GPT-3发布以来,使用与GPT-3一样强大的模型进行训练和推理的成本大大降低,低于先前的五分之一。

e38a9a089cf408089b30dfdf65ddee6e.jpeg

相比2020年推出的GPT-3,与其性能对等的模型的推理与训练成本降低情况总结

参数数量效率:巨型语言模型参数每年增长10倍的神话

考虑到过去5年中模型参数呈指数增长,我们普遍猜测:下一代LLM模型很可能是万亿参数(密集激活)模型:

e5bdb276f58a44f6b9e17d5f273e39f0.jpeg

LLM中模型参数数量的增长

虽然LLM的参数数量每年约增长10倍,但是大多数模型训练数据集的大小并没有显著变化:

938c9f2981220b66fb5e1977c3b9a6d8.jpeg

所选LLM的模型参数数量与训练token数量 (训练计算最优大语言模型)

然而,最新文献表明,假设计算资源和硬件利用率(即训练“计算最优”模型)保持不变,关注扩展参数数量(scaling parameter count)并不是性能最大化的最佳方式:

d0cf8516439b356cc9f2661d177ee60f.jpeg

Google DeepMind的研究人员将一个参数函数(parametric function)拟合到他们的实验结果中,发现参数数量N的增速应与训练token数量D的增长速度大致相同,从而让模型损失L实现最小化(即性能最大化):

de42a61ad11cc2982b58e69108c37384.jpeg

模型损失的参数函数 (训练计算最优大语言模型)

研究人员还训练了一个名为Chinchilla的模型(拥有700亿的参数)。虽然该模型的计算资源与Gopher(拥有2800亿参数)相同,但是该模型是在1.4万亿token上进行训练的而非3000亿token。Chinchilla的性能明显优于拥有相同FLOPs预算的大型模型,从而证明了大多数LLM过度支出了计算量和对数据的渴望 (译者注:换言之,对大多数LLM来说,使用更多的数据来训练比增大模型参数量要更加划算)。

1dbae43f50baf59151fc691153141ef7.jpeg

通过训练数据大小与模型参数来预测模型损失(错误更少:Chinchilla的自然环境含义)

虽然Chinchilla的参数(以及推理计算需求)比GPT-3少60%,但是其性能远远优于拥有1750亿参数的GPT-3模型。

实际上,即使我们用与GPT-3相同的3000亿token数据集去训练一个万亿参数模型,仍可以预见该模型的表现不如Chinchilla:

9e440aec578a64c288277432041ceb57.jpeg

万亿参数模型相应损失项的相对量级(0.03的模型参数损失与0.25的训练token损失)也表明,通过增加模型大小获得的边际效益低于增加数据量获得的边际效益。

展望未来,我们不会继续扩大模型参数数量,而是将增量计算资源(incremental computational resources)转移到质量相当的更大数据集上进行训练,以获得极佳的性能。

Cost/FLOP效率

对于训练LLM而言,最重要的硬件性能指标(hardware performance metric)是可实现的混合精度FP16/FP32 FLOPS。改进硬件旨在实现成本最小化,同时使得峰值FLOPS吞吐量和模型FLOPS利用率实现最大化。

虽然这两个部分在硬件开发中密不可分,但为了让分析变得更简单,本节重点关注吞吐量,下一节再讨论利用率。

efade333282067215e447b008f9d2639.jpeg

目前,我们已经通过查看云实例定价(cloud instance pricing)估算了Cost/FLOP效率。为了进行下一步探究,我们估算了运行以下机器的成本。主要包括以下两个方面:1)硬件购买(hardware purchase) 2)能源支出(energy expense)。为说明这一点,我们再来看看GPT-3(一款由OpenAI推出的模型,该模型在Microsoft Azure的10000个V100 GPU上训练了14.8天)[22]:

4552806a5ba5efd096b51627b3e51067.jpeg

2020年用英伟达V100 GPU训练GPT-3的成本(碳排放与大型神经网络训练)

黄仁勋定律(英伟达首席执行官黄仁勋于2018年提出)指出,在硬件成本方面,GPU的增长速度比五年前快了25倍[23]。在训练LLM的背景下,GPU的性能得到了很大提升,这很大程度上得益于张量核心(Tensor Cores)(AMD采用的是矩阵核心(matrix cores))。此外,GPU不再将矢量作为计算原语,而是转为矩阵,从而实现了性能更好、效率更高的混合精度计算。

2016年,NVIDIA通过V100数据中心GPU首次推出了张量核心。与最初引入的张量核心相比,虽然这一改进不太明显,但是每一代张量核心都进一步提高了吞吐量。如今,对于用于训练LLM的数据中心GPU,我们仍能看到每一代GPU的吞吐量都提升了50%(或者说年均吞吐量提升了22%左右)。

ae5d3e32536bd261a0e552035a1c27aa.jpeg

数据中心GPU FP16/FP32吞吐量/美元 (NVIDIA)

6e01e77a8d623ca5e33331e225a73174.jpeg

桌面GPU和数据中心GPU、按精度划分的吞吐量/美元 (英伟达,深度学习推理中的计算和能源消耗趋势)

能源效率提升得更快。现在我们可以看到,用于训练LLM的数据中心GPU的代际吞吐量/瓦特提高了80%(或者说年均吞吐量提高了34%):

14b1596af8eaf23310b8db92f917a185.jpeg

数据中心 GPU FP16/FP32 吞吐量/瓦特 (英伟达)

a4198f8f8237f8579817049475c01f80.png

按精度划分的桌面和数据中心GPU吞吐量/瓦特(英伟达,深度学习推理中的计算和能耗趋势

仅从V100(用于训练 GPT-3)到即将推出的H100的改进来看,我们预计内部训练成本将降低58%(即训练成本由74.4万美元降低到31.2万美元)。

67015eecfc753cc7884e72396e4166a6.jpeg

目前使用英伟达H100 GPU训练GPT-3的成本

展望未来,我们预测,随着硬件设计的不断创新,硬件成本和能效将逐步改进。例如,从V100到A100 GPU,NVIDIA添加了稀疏特性(sparsity features),这进一步将某些深度学习架构的吞吐量提高了2倍[24] 。NVIDIA正在H100中添加对FP8数据类型的本地支持,当与推理量化等现有技术相结合时,可以进一步提高吞吐量[25]。

此外,TPU和其他专用芯片的出现从根本上重塑了深度学习用例的芯片架构。谷歌的TPU建立在脉动阵列结构(systolic array architecture)之上,可显著减少寄存器使用,提高吞吐量[26]。正如下一节将提到的,随着我们将训练和推理扩展到大型参数模型,最近许多硬件都着力于提高利用率。

硬件利用率提升

出于内存需求,LLM训练的主要挑战之一就是将这些模型从单个芯片扩展到多个系统和集群级别。在典型的LLM训练中,设置保存优化器状态、梯度和参数所需的内存为20N,其中N是模型参数数量[27]。

因此,BERT-Large(2018年早期的LLM之一,拥有3.4亿参数)仅需6.8GB内存,就可轻松装入单个桌面级GPU。另一方面,对于像GPT-3这样的1750亿参数模型,内存要求转换为3.5TB。同时,NVIDIA最新的数据中心 GPU(H100)仅包含80GB的高带宽内存(HBM),这表明至少需要44个H100才能满足GPT-3的内存要求。[28]此外,即使在10000个V100 GPU上训练GPT-3也需要14.8天。

因此,即使我们增加用于训练的芯片数量,FLOPS利用率也仍然需要保持高水平,这一点至关重要。

0ea84ac80c039002525e714d1e650a2d.jpeg

硬件利用率的第一个维度是在单芯片层面。在单个A100 GPU上训练GPT-2模型时,硬件利用率达35.7%[29]。事实证明,片上内存(on-chip memory)和容量是硬件利用的瓶颈之一:处理器内核中的计算需要重复访问HBM,而带宽不足会抑制吞吐量。同样,有限的本地内存容量会迫使从延迟较高的HBM进行更频繁的读取,从而限制吞吐量[30]。

硬件利用率的第二个维度与芯片到芯片的扩展有关。训练像GPT-3这样的LLM模型需要跨多个GPU对模型和数据进行划分。正如片上存储器的带宽可能成为硬件利用的瓶颈一样,芯片间互连的带宽也可能成为硬件利用的限制因素。随着V100的发布,NVIDIA的NVLink实现了每个GPU 300GB/s的带宽。对于A100来说,宽带速度实现了600GB/s[31]。

硬件利用率的最后一个维度是系统到系统的扩展。一台机器最多可容纳16个GPU,因此扩展到更多数量的GPU要求跨系统的互连不能成为性能瓶颈。为此,Nvidia的Infiniband HCA在过去3年中将最大带宽提高了2倍[32]。

在第二和第三个维度上,软件划分策略是硬件有效利用的关键考虑因素。通过结合模型和数据并行技术,2022年使用MT-NLG的Nvidia芯片集群级别的LLM训练的模型FLOPS利用率达到了30.2%[33],而使用GPT-3的模型FLOPS利用率在2020年只有21.3%:

dd77ab3458ffedc08f8d1c4908750d2c.jpeg

选择LLM的模型FLOPS利用率(PaLM:使用路径扩展语言建模

TPU等专用硬件实现了更高的效率。

谷歌5400亿参数的PaLM模型在TPU v4芯片上实现了46.2%的模型FLOPS利用率,是GPT-3训练利用率的2.2倍[34]

FLOPS利用率的提高得益于更高效的并行训练(使用Google的Pathways ML系统)以及从根本上TPU具有完全不同的架构。该芯片的脉动阵列结构和每个内核的显著的本地内存密度(local memory density)降低了高延迟全局内存(global memory)的读取频率。

同样地,我们可以看到CerebrasGraphcore和SambaNova等公司在处理器中分配了更多的共享内存容量。展望未来,我们预计其他新兴创新,例如将芯片扩展到晶圆级以减少延迟/增加带宽,或通过可编程单元优化数据访问模式等将进一步推动硬件利用率的发展[35]。

6

大型语言模型即将迎来全盛时期

据《纽约时报》近日报道,谷歌宣称ChatGPT是其搜索业务的“红色警报”( code red),它的搜索量呈病毒式发展。

[36]从经济角度来看,通过粗略估算,将高性能LLM纳入搜索将花费约15%的查询收入,这表明该技术的部署已经切实可行。然而,谷歌的市场主导地位阻碍了它成为这方面的先行者:谷歌目前的搜索收入为1000亿美元,将高性能LLM纳入搜索会使谷歌的盈利能力减少一百多亿美元。

另一方面,也就难怪微软会计划将大语言模型纳入Bing了[37]。尽管LLM支持的搜索成本高于传统搜索,并且与谷歌相比,微软搜索引擎的市场份额要低得多,但是微软并未亏损。因此,如果微软能够成功地从谷歌手中夺取搜索市场份额,那么即使现有查询成本更高,微软仍然能够获得极高的利润。

有趣的是,对于其他产品,通过部署LLM已经可以通过SaaS来盈利。例如,最近估值为15亿美元、使用LLM生成文案的Jasper.ai收费为82美元/100000字(相当于1.09美元/1000个token)[38]。使用OpenAI的Davinci API 定价为 0.02美元/1000个token,即使我们对多个响应(response)进行采样,毛利率也可能远高于75%。

同样令人惊讶的是,如今在公有云中仅需约140万美元即可对GPT-3进行训练,而且即使是SOTA模型(如PaLM,约1120万美元)的训练成本也不会太高。在过去的两年半里,类似GPT-3等模型的训练成本下降了80%以上,高性能大语言模型的训练成本将进一步降低。

换句话说,训练大语言模型并不便宜,但也没那么烧钱,训练大语言模型需要大量的前期投入,但这些投入会逐年获得回报。更近一步,Chinchilla论文表明,在未来,相比资金,高质量数据会成为训练LLM的新兴稀缺资源之一,因为扩展模型参数数量带来的回报是递减的。

参考文献(请上下滑动) 

  1. Alphabet 2021 10K

  2. Comparing Google and ChatGPT

  3. Microsoft and OpenAI Working on ChatGPT-Powered Bing in Challenge to Google

  4. Introducing YouChat - The AI Search Assistant that Lives in Your Search Engine

  5. Google Calls In Help From Larry Page and Sergey Brin for A.I. Fight

  6. ChatGPT: Optimizing Langauge Models for Dialogue(实际上,ChatGPT还在基础1750亿参数语言模型之上使用了RLHF(Reinforcement Learning from Human Feedback,即从反馈中获得强化学习)机制,但为了简单起见,我们不考虑强化学习成本。)

  7. Teaching language models to support answers with verified quotes

  8. ChatGPT: Optimizing Langauge Models for Dialogue

  9. OpenAI Pricing

  10. Building Software Systems at Google and Lessons Learned

  11. What’s New With Google Search

  12. Our World in Data: Internet

  13. Alphabet 2020 10K

  14. Scaling Laws for Neural Language Models(对于encoder-decoder模型,推理FLOPs约为N,而不是仅解码器模型的2N)

  15. AWS EC2 P4 Instances

  16. NVIDIA A100 Tensor Core GPU Architecture

  17. Mixed precision training(针对FP16/FP32描述的所有内容也适用于BF16/FP32混合精度运算,这些运算在A100和其他处理器上具有类似的吞吐量)

  18. PaLM: Scaling Langauge Modeling with Pathways

  19. Cloud TPU pricing

  20. Scaling Laws for Neural Language Models(对于encoder-decoder模型,训练FLOPS约为3N,而不是仅解码器模型的6N)

  21. PaLM: Scaling Langauge Modeling with Pathways

  22. Carbon Emissions and Large Neural Network Training

  23. GTC 2018 Keynote with NVIDIA CEO Jensen Huang

  24. NVIDIA A100 Tensor Core GPU Architecture

  25. NVIDIA Hopper Architecture In-Depth

  26. An in-depth look at Google’s first Tensor Processing Unit (TPU)

  27. Using DeepSpeed and Megatron to Train Megatron-Turing NLG 530B, A Large-Scale Generative Language Model(假设基于使用混合精度训练的Adam优化器,每个参数占用20字节的内存)

  28. NVIDIA Hopper Architecture In-Depth

  29. State-of-the-Art Language Modeling Using Megatron on the NVIDIA A100 GPU

  30. Which GPU(s) to Get for Deep Learning: My Experience and Advice for Using GPUs in Deep Learning

  31. NVLink and NVSwitch

  32. NVIDIA ConnectX InfiniBand Adapters

  33. PaLM: Scaling Langauge Modeling with Pathways

  34. PaLM: Scaling Langauge Modeling with Pathways

  35. Cerebras Architecture Deep Dive: First Look Inside the HW/SW Co-Design for Deep Learning

    Graphcore IPU Hardware Overview

    SambaNova SN10 RDU at Hot Chips 33

  36. A New Chat Bot is a ‘Code Red’ for Google’s Search Business

  37. Microsoft and OpenAI Working on ChatGPT-Powered Bing in Challenge to Google

  38. Jasper.ai Pricing

(本文经授权后由OneFlow编译发布,译文转载请联系OneFlow获得授权。原文地址: https://sunyan.substack.com/p/the-economics-of-large-language-models)

其他人都在看

  • OneFlow v0.9.0正式发布

  • Sam Altman的成功学|升维指南

  • ChatGPT的一小步,NLP范式转变的一大步

  • 比快更快,开源Stable Diffusion刷新作图速度

  • OneEmbedding:单卡训练TB级推荐模型不是梦

  • GLM训练加速:性能最高提升3倍,显存节省1/3

  • “一键”模型迁移,性能翻倍,多语言AltDiffusion推理速度超快

    欢迎Star、试用OneFlow最新版本:​​GitHub - Oneflow-Inc/oneflow: OneFlow is a deep learning framework designed to be user-friendly, scalable and efficient.OneFlow is a deep learning framework designed to be user-friendly, scalable and efficient. - GitHub - Oneflow-Inc/oneflow: OneFlow is a deep learning framework designed to be user-friendly, scalable and efficient.https://github.com/Oneflow-Inc/oneflow/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/331428.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

((蓝桥杯 刷题全集)【备战(蓝桥杯)算法竞赛-第4天(搜索与图论-下 专题)】( 从头开始重新做题,记录备战竞赛路上的每一道题 )距离蓝桥杯还有63天

🏆🏆🏆🏆🏆🏆🏆 欢迎观看我的博客,如有问题交流,欢迎评论区留言,一定尽快回复!(大家可以去看我的专栏,是所有文章的目录&a…

差分隐私学习笔记

2021网络空间安全西湖学术论坛线上报告中介绍了差分隐私过去发展,目前现状以及未来研究方向。博主对这个报告进行了介绍与总结。总结中提到学习差分隐私最重要的环节是: 了解差分隐私的基本机制:拉普拉斯机制、指数机制和高斯机制差分隐私的组…

【数据结构与算法】前缀树的实现

🌠作者:阿亮joy. 🎆专栏:《数据结构与算法要啸着学》 🎇座右铭:每个优秀的人都有一段沉默的时光,那段时光是付出了很多努力却得不到结果的日子,我们把它叫做扎根 目录👉…

54 循环神经网络 RNN【动手学深度学习v2】

54 循环神经网络 RNN【动手学深度学习v2】 深度学习学习笔记 学习视频:https://www.bilibili.com/video/BV1D64y1z7CA/?spm_id_from333.880.my_history.page.click&vd_source75dce036dc8244310435eaf03de4e330 对序列化数据集的训练网络,通常称为RN…

第三章 Opencv图像像素操作

目录1.像素1-1.确定像素位置1-2.获取指定像素的像素值1-3.修改像素的BGR值2.用numpy模块操作像素2-1.创建图像1.创建黑白图像2.创建彩色图像3.创建随机图像2-2.拼接图像1.水平拼接hstack()方法2.垂直拼接vstack()方法1.像素 1.像素是构成数字图像的最小单位。每一幅图像都是由M…

【第29天】SQL进阶-查询优化- performance_schema系列实战四:查看最近的SQL执行信息(SQL 小虚竹)

回城传送–》《32天SQL筑基》 文章目录零、前言一、 查看最近的top sql1.1 数据准备(如果已有数据可跳过此操作)1.2 查询events_statements_summary_by_digest表二、查看最近执行失败的SQL2.1 开启第一个会话,执行错误sql2.2 开启第二个会话&…

pytest当中pytest.ini使用

目录 一、作用 二、存放位置 三、功能(只列了简单的) 1、 addopts 2、更改测试用例收集规则 四、运行就减少了命令了 前言:pytest配置文件可以改变pytest的运行方式,它是一个固定的文件pytest.ini文件。 一、作用 pytest.in…

Ceph分部署存储知识总结

Ceph 一.deploy-ceph部署 投入使用ceph前,要知道一个很现实得问题,ceph对低版本内核得客户端使用非常不友好,低内核是指小于等于3.10.0-862,默认的centos7.5及以下的系统都是小于此类内核,无法正常使用ceph的文件存储…

内网渗透(十一)之内网信息收集-内网IP扫描和发现

系列文章第一章节之基础知识篇 内网渗透(一)之基础知识-内网渗透介绍和概述 内网渗透(二)之基础知识-工作组介绍 内网渗透(三)之基础知识-域环境的介绍和优点 内网渗透(四)之基础知识-搭建域环境 内网渗透(五)之基础知识-Active Directory活动目录介绍和使用 内网渗透(六)之基…

用YOLOv8推荐的Roboflow工具来训练自己的数据集

YOLOv8是Ultralytics公司开发的YOLO目标检测和图像分割模型的最新版本,相较于之前的版本,YOLOv8可以更快速有效地识别和定位图像中的物体,以及更准确地分类它们。 作为一种深度学习技术,YOLOv8需要大量的训练数据来实现最佳性能。…

如何旋转YUV图片数据且使用Qt显示

前言 提一下这篇文章的需求:将USB相机获取到的YUV数据进行旋转,然后转为QImage进行显示。原本程序中是有旋转的代码,但不知道为什么,旋转出来的图片会花屏。关于花屏的问题,后面会稍微阐述一下。所以,经过…

[多线程进阶] 常见锁策略

专栏简介: JavaEE从入门到进阶 题目来源: leetcode,牛客,剑指offer. 创作目标: 记录学习JavaEE学习历程 希望在提升自己的同时,帮助他人,,与大家一起共同进步,互相成长. 学历代表过去,能力代表现在,学习能力代表未来! 目录: 1. 常见的锁策略 1.1 乐观锁 vs 悲观锁 1.2 读写…

bootstrap 框架

文章目录bootstrap必须使用 HTML5 文档类型排版和链接默认栅格系统带有基本栅格的 HTML 代码媒体类型媒体类型逻辑运算符 用来做条件判断页面布局: 引入 css(bootstrap.min.css) 类名03-面包屑导航警告框、徽章、面包屑导航、按钮、按钮组卡…

css行内块元素垂直居中

css行内块元素垂直居中 div里边有个img标签&#xff0c;要想让img垂直居中&#xff0c;需要 给父盒子设置line-heightheightimg设置vertical-align:middle <div style"background-color: red; height: 150px;line-height: 150px;"><img src"images/…

Unity开发环境配置

Unity本体安装 1.首先下载安装unityhub,中文管网https://unity.cn/ 2.登录unityhub&#xff0c;选择你想要的版本安装 选择后按照提示选择个人免费试用的license,然后等待unity本体下载安装即可。 VSCode安装和配置 1.去官网https://code.visualstudio.com/下载vscode 2.u…

微信小程序 Springboot ssm房屋租赁系统uniapp设计与实现

房屋租赁系统用户和户主是基于微信端&#xff0c;管理员是基于网页端&#xff0c;系统采用java编程语言&#xff0c;mysql数据库&#xff0c; idea工具开发&#xff0c;本系统分为用户&#xff0c;户主&#xff0c;管理员三个角色&#xff0c;其中用户可以注册登陆小程序&#…

C++11入门

目录 C11简介 统一的列表初始化 {}初始化 std::initializer_list 文档介绍 std::initializer_list的类型 使用场景 initializer_list接口函数模拟实现 auto与decltype nullptr 范围for STL的变化 新容器 新方法 新函数 C11简介 1.在2003年C标准委员会曾经提交了一…

【浅学Redis】缓存 以及 缓存穿透、缓存击穿、缓存雪崩

缓存 以及 缓存击穿、缓存穿透、缓存雪崩1. 缓存1.1 缓存的作用1.2 缓存的应用场景1.3 引入缓存后的执行流程1.4 缓存的优点2. 缓存穿透2.1 场景2.2 解决策略1. 参数校验2. 缓存空值3. 缓存击穿3.1 场景3.2 解决策略4. 缓存雪崩4.1 场景4.2 解决策略5. 上面三者的区别1. 缓存 …

图像分割--入门了解

一. 三种分割 1. 语义分割&#xff08;semantic segmentation&#xff09; 语义分割&#xff1a;语义分割通过对图像中的每个像素进行密集的预测、推断标签来实现细粒度的推理&#xff0c;从而使每个像素都被标记为一个类别&#xff0c;但不区分属于相同类别的不同实例。 比…

ChatGPT之父:世界正被他搅动

阿尔特曼&#xff08;左&#xff09;与马斯克Mac LC2电脑ChatGPT这款聊天应用程序最近太火了&#xff01; 美国北密歇根大学的一名学生用它生成了一篇哲学课小论文&#xff0c;“惊艳”了教授&#xff0c;还得到了全班最高分。美国一项调查显示&#xff0c;53%的学生用它写过论…