透过ChatGPT的进化足迹,OpenAI传达了哪些信号?

news2025/7/5 17:11:54

572dced4db6a4dee8f2f742b2edef564.jpeg

古希腊神话中,一位名叫赫尔墨斯的神,会充当人神之间的信使,穿着带有双翼的飞鞋,行走在神明与人类之间。

根据《荷马史诗》的记载:“在天神中,赫尔墨斯是最喜欢引导凡人前行的。”这句话用来形容OpenAI与AI的关系,虽不中亦不远矣。

上一周,OpenAI打造的ChatGPT出尽风头,成为国内外AI领域的头号热门话题。关于ChatGPT的对话能力,大家可能已经通过很多文章感受过了。简单总结,就是对答如流,无所不能,可替程序员写代码,可替商务人士出方案,还能替作家编故事。一度让久违的 “谷歌已死”“XX职业又要被AI取代了”之类的AI威胁论说辞,开始大量出现了。

关于ChatGPT的神奇之处,看多了也有点审美疲劳了,冷静下来思考一下:

为什么同样是AIGC,问答、对话这类NLP领域应用更容易引起轰动,激发人们对通用人工智能的希望?

为什么同样是预训练模型,相比BERT、GPT3等前辈,ChatGPT的对话能力产生了质的飞跃?

为什么同样是做AI,OpenAI要死磕NLP,从GPT1到 ChatGPT不断迭代?

a55f2e10f99dab5d697c70a9a4048e3d.png

OpenAI的CEO、联合创始人 Sam Altman曾说过一句话:“Trust the exponential,Flat looking backwards,vertical looking forwards”,相信指数的力量,平行地向后看,垂直地向前看。ChatGPT出现代表着,AI似乎已经站到了指数级飞跃的关键点上。但起飞的ChatGPT,并不是一蹴而就的。

从GPT到ChatGPT,恰好代表了OpenAI在大模型领域切实走过的历程,从中可以看到,OpenAI在AI大模型竞争中,已经探索出了一条属于自己的道路,就如同赫尔墨斯一样,成为引领AI技术前进的使者。

如果OpenAI是传递AI前沿进展的赫尔墨斯,ChatGPT就是那双带着双翼的金丝鞋。我们既要关注ChatGPT这双鞋究竟有多神奇,更有必要搞懂,OpenAI选择的这条大模型道路有何玄机。

今天,中国科技企业与研究机构都在积极投布局大模型,求术不如问道,我们不妨从GPT这一系列模型的演变历程,望向OpenAI关于AI与大模型的战略思考与发展脉络。

294b50313667947a889f4115d8b3a3a2.png

从GPT-1到ChatGPT,

超神模型的演化足迹

OpenAI在博客中写道,ChatGPT 是从 GPT3.5 系列中的模型进行微调而诞生的。

正如名称中所暗示的那样,GPT- 3.5是OpenAI设计的一系列NLP模型中的第四个,此前还出现了GPT - 1、GPT - 2 和 GPT - 3。

在 GPT 出现之前,NLP 模型主要是基于针对特定任务的大量标注数据进行训练。这会导致一些限制:

大规模高质量的标注数据不易获得;

模型仅限于所接受的训练,泛化能力不足;

无法执行开箱即用的任务,限制了模型的落地应用。

为了克服这些问题,OpenAI走上了预训练大模型的道路。从GPT1到ChatGPT,就是一个预训练模型越来越大、效果越来越强的过程。当然,OpenAI的实现方式并不只是“大力出奇迹”那么简单。

第一代:从有监督到无监督GPT-1。2018年,OpenAI推出了第一代生成式预训练模型GPT-1,此前,NLP任务需要通过大规模数据集来进行有监督的学习,需要成本高昂的数据标注工作,GPT-1的关键特征是:半监督学习。先用无监督学习的预训练,在 8 个 GPU 上花费 了1 个月的时间,从大量未标注数据中增强AI系统的语言能力,获得大量知识,然后进行有监督的微调,与大型数据集集成来提高系统在NLP任务中的性能。

GPT-1的效果明显,只需要极少的微调,就可以增强NLP模型的能力,减少对资源和数据的需求。同时,GPT-1也存在明显的问题,一是数据局限性,GPT-1 是在互联网上的书籍和文本上训练的,对世界的认识不够完整和准确;二是泛化性依然不足,在一些任务上性能表现就会下降。

d266a6d0d4f9edb326ca4049b360369e.png

第二代:更大更高更强的GPT-2。2019年推出的GPT-2,与GPT-1并没有本质上的不同(注意这一点),架构相同,使用了更大的数据集WebText,大约有40 GB的文本数据、800万个文档,并为模型添加了更多参数(达到惊人的 15 亿个参数),来提高模型的准确性,可以说是加强版或臃肿版的GPT-1。

GPT-2的出现,进一步证明了无监督学习的价值,以及预训练模型在下游NLP任务中的广泛成功,已经开始达到图灵测试的要求,有研究表示,GPT-2生成的文本几乎与《纽约时报》的真实文章(83%)一样令人信服。

5481eb7e7e997ce2c031f309c6281e56.png

(GPT-2表现)

第三代:跨越式进步的GPT-3。2020年,GPT-3的这次迭代,出现了重大的飞跃,成为与GPT-2迥然不同的物种。

首先,GPT-3的体量空前庞大,拥有超过 1750 亿个参数,是GPT-2的 117 倍;其次,GPT-3不需要微调,它可以识别到数据中隐藏的含义,并运用此前训练获得的知识,来执行下游任务。这意味着,哪怕从来没有接触过的示例,GPT-3就能理解并提供不错的表现。因此,GPT-3也在商业应用上表现出了极高的稳定性和实用性,通过云上的 API访问来实现商业化。这种入得了实验室、下得了车间的能力,使得GPT-3成为2020年AI领域最惊艳的模型之一。

当然,GPT-3也并不完美。正如联合创始人 Sam Altman所说,GPT-3的水平仍处于早期阶段,有时候也会犯非常愚蠢的错误,我们距离真正的人工智能世界还有很长的距离。另外,GPT-3 API 的很多基础模型非常庞大,需要大量的专业知识和性能优异的机器,这使得中小企业或个人开发者使用起来比较困难。

第四代:基于理解而生成的ChatGPT。终于在2022年,OpenAI的预训练语言模型之路,又出现了颠覆式的迭代,产生了技术路线上的又一次方向性变化:基于人工标注数据+强化学习的推理和生成。

42735a7c2afcc0e03aa9ecb23f5ad2e2.png

前面提到,一开始预训练模型的出现,是为了减少监督学习对高质量标注数据的依赖。而ChatGPT在GPT -3.5大规模语言模型的基础上,又开始依托大量人工标注数据(据说OpenAI找了40个博士来标数据),这怎么又走回监督学习的“老路”了呢?

原因是,GPT 3.5虽然很强,但无法理解人类指令的含义(比如写一段博文、改一段代码),无法判断输入,自然也就很难给出高质量的输出答案。所以OpenAI通过专业的标注人员(据说是40个博士)来写词条,给出相应指令/问题的高质量答案,在基于这些数据来调整GPT -3.5的参数,从而让GPT -3.5具备了理解人类指令的能力。

在人工标注训练数据的基础上,再使用强化学习来增强预训练模型的能力。强化学习,简单理解就是做对了奖励、做错了惩罚,不断根据系统的打分来更新参数,从而产生越来越高质量的回答。所以这几天很多人在互动中发现,ChatGPT会承认错误、会修改自己的答复,这正是因为它具备从人类的反馈中强化学习并重新思考的能力。

因为ChatGPT具备了理解能力,所以才被看作是通向通用人工智能AGI的路径。

当然,ChatGPT也并不是完美进化体。OpenAI的官网明确提示,ChatGPT“可能偶尔会生成不正确的信息”,并且“对2021年之后的世界和事件的了解有限”。一些比较难的知识,比如“红楼梦讲了什么”,ChatGPT会一本正经地胡说八道。

从GPT模型的演进和迭代中,可以看到OpenAI是不断朝着自然语言理解这一目标前进,用更大的模型、更先进的架构,最终为通用人工智能找到了一条路径。

从GPT-1到ChatGPT的纵向演变,会看到OpenAI对大模型的独特理解与技术脉络——通过模型预训练提升NLP指标,抵达强人工智能。NLP领域究竟特殊在哪里,值得OpenAI如此执着?

OpenAI的大模型差异化之路

5a550cd6057f613d99aa762386cf0c70.png

前文中不难看出,OpenAI对于文本生成模型的执着,因为做够得久、投入够多,所以能够做得更好,是非常有长期战略定力的。

与之相比,和GPT-1同年推出的预训练模型,还有谷歌发布的BERT,但后者在火爆一段时间之后影响力明显减弱;而NLP问答领域一向由Meta引领,Meta AI 的 OPT 模型和GPT-3 达到了同等的参数量,但效果就不如OpenAI。同期选手中,OpenAI对于语言模型的用心显然是更多的。

一方面是资源投入,无论是越来越大的模型,需要消耗庞大的算力资源,ChatGPT所需要的高质量标注数据,依靠博士级别的专业人士来完成,比起将数据标注任务分发给众包平台,显然会消耗更多的人力和财力。

另一方面,是技术投入,大规模预训练、增强学习等技术都用在提升NLP对话系统在开放通用领域上的理解和推理能力。NLP是认知智能,要提升就必须解决知识依赖,而知识又是非常离散且难以表示的,要解决带标数据不足、常识知识不足等问题,是非常具有技术挑战的。多年前IBM的Frederick Jelinek就说过:“每当我开除一个语言学家,语音识别系统的性能就会改善一些。”颇有种“解决不了问题,就解决提出问题的人”的既视感。所以也可以说,OpenAI选择了一条更难走的路,去解决真正困难的问题。

6054150e33c3c8f485005c728e6befca.png

此外,聚焦NLP领域也意味着OpenAI会承担隐形的机会成本。

今年AIGC(AI生成内容)在资本市场和应用市场都有很大的进展,与AI作画、音视频生成、AlphaFold2所解决的蛋白质结构预测等生成任务相比,NLP任务都是直接用词汇和符号来表达概念,此类模型通过“API+云服务”来完成商业化服务,无论是云资源的消耗量还是接口调用服务收费,所获得的收益也是远不及图像音视频或科学计算的。拿同样的精力做十个八个Dalle模型,肯定能赚得更多。

科技博主王咏刚在博客中分享了一个故事,称与OpenAI的两位联合创始人交流,发现这二人甚至不知道AIGC是什么意思!

说到这里,或许可以得出结论,OpenAI作为一个旨在“实现安全的通用人工智能(AGI)”的公司,就是在不计投入、不计商业回报,专心致志地通过过预训练大模型来提升NLP任务的各项指标,从而接近AGI的愿景。

为什么OpenAI能够走出这条引领潮流的大模型差异化之路呢?

一方面是NLP的特殊之处。

NLP 不是魔术,但是,其结果有时几乎就是魔术一般神奇。通用人工智能必须具备认知智能,这也是目前制约人工智能取得更大突破和更广泛应用的关键瓶颈,而NLP正是认知智能的核心。Geoffrey Hinton、Yann LeCun都曾说过类似的观点,深度学习的下一个大的进展,应该是让神经网络真正理解文档的内容。

也就是说,当AI能理解自然语言了,AGI可能就实现了。

另外,OpenAI的运行模式也起到了关键的影响。

突破性创新早期需要大量的投入,大模型的开发需要大量的基础设施投入,而ChatGPT的对话系统短期内很难靠调用量的规模化来摊平研发成本。因此,OpenAI是一个非营利性研究机构,没有迫切的商业化压力,因此可以更专注于NLP领域的基础研究,这是商业型AI公司所很难实现的。

96e9cebe5cf14e3a759347302c4ceab5.png

2011年,自然语言领域的泰斗肯尼斯·丘吉(Kenneth Church)发表了一篇长文《钟摆摆得太远》(A Pendulum Swung Too Far),其中提到:我们这一代学者赶上了经验主义的黄金时代,把唾手可得的低枝果实采摘下来,留给下一代的都是“难啃的硬骨头”。

深度学习是经验主义的一个新高峰,而这个领域的低枝果实也总有摘完的一天,近年来有大量AI科学家发出警告,深度学习面临很多局限性,单纯用深度学习很难解决一些复杂任务,或许不用太久,基础性突破就会成为AI产业的重要支撑。

GPT的演进也说明了,AI的突破需要循序渐进、从小到大地一步步实现,今天,每家AI企业和研究机构都在做大模型,相比CV计算机视觉、数字人、元宇宙等AI应用,NLP要显得暗淡很多。而如果一窝蜂去摘容易的果实,最终会制约AI深入产业的脚步。

ChatGPT的出现提醒我们,唯有啃下基础领域的硬骨头,才能真正为AI带来质变。

c78ee0f535f01c5c8378534fc122341c.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/87467.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

佳力奇IPO过会:拟募资11亿 西安现代与华控湖北是股东

雷递网 雷建平 12月13日安徽佳力奇先进复合材料科技股份公司(简称:“佳力奇”)日前IPO过会,准备在深交所创业板上市。佳力奇计划募资11.22亿元,其中,6.2亿元用于先进复合材料数智化生产基地建设项目&#x…

Google Cloud database options (关于GCP数据库怎么选择)

背景 GCP提供了几种您可以从中选择的数据库服务,可是究竟该用哪个呢? Cloud SQL:Cloud Spanner:BigQuery:Cloud Bigtable:Cloud Firestore:Firebase Realtime Database:Cloud Memorystore: from Google Cloud database options sort out by zhengkai.…

【自然语言处理】隐马尔科夫模型【Ⅱ】隐马尔科夫模型概述

有任何的书写错误、排版错误、概念错误等,希望大家包含指正。 由于字数限制,分成六篇博客。 【自然语言处理】隐马尔可夫模型【Ⅰ】马尔可夫模型 【自然语言处理】隐马尔科夫模型【Ⅱ】隐马尔科夫模型概述 【自然语言处理】隐马尔科夫模型【Ⅲ】估计问题…

14、TheFatRat木马生成工具-创建后门或payload

kail攻击主机: Kali 192.168.11.106靶机:windows server 2008 r2 192.168.11.134 x64 32位一、TheFatRat介绍 TheFatRat创建的后门或者payload,可以在Linux,Windows,Mac和Android上等多种平台上执行,可生…

九、JavaScript——数据类型_数值

一、数值 定义及规范: 数值 (Number) -在JS中所有的整数和浮点数(小数) 都是Number JS中的数值并不是无限大的,当数值超过一定后会显示近似值,JavaScript表达的最大整数是:9007199254740992 Infinity 是…

设计模式总览——枯燥的知识又增加了

从今天开始呢,阿Q就带大家了解一下 java 的设计模式,并从中选出比较常用的几种设计模式进行总结。首先呢,先给大家说一下设计模式到底是什么。 设计模式 设计模式(Design pattern)代表了最佳的实践,通常被…

iOS备用机自动充电方案

搬到新加坡以后,我拥有了很多张手机卡:1张国内的电话卡,回国时使用1张新加坡电话卡,本地使用1张马来西亚电话卡,去马来西亚旅行时使用1张英国电话卡,去欧洲旅行时使用相对应的,我需要有备用机来…

DSP篇--C6701功能调试系列之 FLASH测试

目录 1、 FLASH介绍 2、 FLASH功能测试 调试的前期准备可以参考前面的博文:DSP篇--C6701功能调试系列之前期准备_nanke_yh的博客-CSDN博客 1、 FLASH介绍 FLASH作为EMIF的外设,对其操作就需要根据EMIF相关配置来确定FLASH的地址了。 一般地&#xff…

Django第二天学习记录

1.对于路由配置的正则化补充(re_path的正则匹配) 对于第一天学习的path转换器过于暴力,对于需要匹配的内容不能很精准的进行转换。为了实现精准的字符串匹配规则,因此引入了re_path(reg,view,namexxx)进行路由规则的精确匹配。 正…

关于云计算的 7 大误区

一直以来,有几个关于云计算的误区四处传播,散布恐惧和不必要的不信任。在使用新技术之前研究新技术并检查事实是很好的。让我们来看看关于云计算的 7 大误区,看看哪些是真的,哪些不是。 1.云迁移可能很麻烦 云迁移包括许多过程&am…

KMP算法讲解与实现

0、概述 KMP是用于字符串查找/匹配的算法; KMP算法的时间复杂度:O(n)O(n)O(n); KMP算法的核心: 1)如何理解 next 数组2)如何利用 next 数组加速匹配过程,优化时的两个实质 KMP算法的实现 1…

推荐|资深架构师 10 年 10 条干货职场心得

出道这么些年,跳过好多公司,除了国企其他的基本上都去过,甲方、乙方、外包、外企、互联网公司、创业公司…总结下来有这么些体会,希望能对你和大家有些参考价值。1. 保持学习可能离开了学校之后,所有的学习几乎都出于工…

b站黑马的Vue快速入门案例代码——图片切换(类似手动播放的轮播图)

目录 目标效果: 重点原理: 1.用数组储存图片的数据 2.v-bind指令可以设置元素属性 e.g.src 语法 v-bind:属性名表达式 简写【实际开发常用】 :属性名表达式 3.v-show和v-if都可以切换元素的显示/隐藏状态 (1)频繁切换显示/隐藏的dom元素用 v…

Opencv项目实战:17 贪吃蛇游戏

目录 0、项目介绍 1、效果展示 2、项目搭建 3、项目代码展示与讲解 4、项目资源 5、项目总结 0、项目介绍 这次是一个有意思的计算机视觉游戏——贪吃蛇,我们以食指为蛇头,不断的移动我们的手指,当吃到甜甜圈的时候,蛇身增…

浅谈字节码增强技术系列2-Asm与Cglib

作者:董子龙 前言 记得那是2022年秋天的第一场雨,比2021年来的稍晚一些,在那个秋雨朦胧的下午,正在工位上奋笔疾书的我突然听到了前面波哥对着手机听筒说出来的"温柔"的话语:说说你了解的spring-aop。话音…

基于Vision Transformers的文档理解简介

文档理解是从pdf、图像和Word文档中提取关键信息的技术。这篇文章的目标是提供一个文档理解模型的概述。 文档理解算法使用编码器-解码器结构分析文档内容,该管道结合了计算机视觉(CV)和自然语言处理(NLP)方法。管道的CV部分将文档作为输入图像进行分析&#xff0c…

对数据库索引的理解以及索引在MySQL中的数据结构

引言 索引在本质上相当于书的目录,通过目录就可以快速的找到某个章节对应的位置。索引的效果,就是加快了查找的速度。日常进行数据库的操作,一般地都是进行增删查改,而在很多场景中,进行查找的概率要比增删改大很多。…

搭建Flutter Web开发调试环境

Setting up the Framework/Engine development environment背景搭建 framework 开发环境修改调试 framework 源码运行 framework 测试用例同步更新 framework 源码搭建 engine 开发环境准备 depot_tools部署 engine 源码编译 engine 源码修改调试 engine 源码指定 --local-engi…

​极氪汽车被曝拟美股上市:最高募资10亿 李书福接连收获IPO

雷递网 雷建平 12月13日极氪汽车日前被曝出已“秘密递交申请”,准备在美股上市,此次拟募资10亿美元,估值可能高达100亿美元。有分析认为,极氪汽车秘密递交招股书,是为尽可能向其他竞争对手隐藏招股书细节,以…

十二、对象继承深入、call_apply、※圣杯模式、※构造函数和闭包、※企业模块化

十二、对象继承深入、call_apply、※圣杯模式、※构造函数和闭包、※企业模块化 对象继承深入 原型链继承 原型链定义 ​ 对象沿着__proto__在原型上寻找属性形成一种链条式的继承关系,这种继承关系就叫做原型链。 例如: Professor.prototype {na…