人工智能极简史:一文读懂ChatGPT的前世今生

news2024/11/20 8:44:06

2022年11月30日,OpenAI推出的一款人工智能技术驱动的自然语言处理工具——ChatGPT,迅速在社交媒体上走红,短短5天,注册用户数就超过100万。 2023年1月末,ChatGPT的月活用户已突破1亿,一度成为史上增长最快的消费者应用(之后被threads的5天打破)。

微软创始人比尔盖茨在他的博客中畅谈ChatGPT,他说:OpenAI发布的大语言模型ChatGPT是他一生中遇到的两项革命性技术之一。另一个是1980年出现的图形用户界面。

这款具有革命性意义的产品是如何横空出世的?今天我们就来一起来探索一下。

探索

人工智能开始于1940年代末。计算机先驱们开始研究机器是否能够 "思考"。

英国计算机先驱艾伦-图灵的研究取得了突破性的进展。1950年,图灵发表了一篇开创性的论文 "计算机械与智能"。他讨论了如何建造智能机器并测试其智能。提出了“图灵测试”的概念,当你不面对面的时候,跟别人文字聊天,能不能准确判断出来对方是一个人,还是一个机器人。如果你很难分辨,那一定程度可以说这个机器是智能的。

图灵还通过在Bletchley Park时期使用贝叶斯统计方法来解码加密消息,他和他的团队逐字使用统计数据来回答问题,例如:“这个特定的德国单词生成了这些加密字母的概率是多少?”类似的贝叶斯方法现在驱动生成型AI程序,用于生成文章、艺术作品和从未存在的人物形象。“过去70年来,贝叶斯统计领域发生了一整个平行宇宙的活动,完全支持了今天我们所看到的生成型AI,我们可以将其追溯到图灵在加密方面的工作。

1955年,"人工智能 "这个术语被创造出来。约翰·麦卡锡(John McCarthy),新罕布什尔州达特茅斯学院的计算机科学家,提出了这个短语,对AI的前景充满乐观。他写道:“我们认为,如果一组精选的科学家在夏季一起工作,就可以取得重大进展。”然而,当时的进展很小,1970年代AI泡沫破裂,英国著名数学家詹姆斯·莱特希尔(James Lighthill)撰写了一份严厉的关于AI进展不足的报告,导致立即削减了资金。

1956年--达特茅斯的人工智能夏季研究项目标志着人工智能作为一个研究领域的诞生。

1958年,心理学家弗兰克·罗森布拉特(Frank Rosenblatt)推出了Perceptron,一项令人振奋的创新,被誉为“第一台能够产生原创思想的机器”。Perceptron在一台当时尖端的IBM大型计算机上运行,它模拟人类神经元,学会区分标有左边和右边的穿孔卡片。《纽约客》称其为 "非凡的机器,能够相当于思考"。

尽管在早期显示出了潜力,但Perceptron仅仅是一个基础的神经网络,远未达到推动现代AI的复杂“深度”神经网络的水平。

1961年,Unimation公司推出了第一个为工业用途设计的机器人。

1963年,麻省理工学院开发出第一台神经网络学习机。

模式匹配

1966年,MIT实验室发明了聊天机器人Eliza。它可以模仿治疗师,用英语交谈。

1970年,第一个拟人机器人WABOT-1在日本早稻田大学建成。它由一个肢体控制系统、一个视觉系统和一个对话系统组成。

AI的转折点在1986年到来,当时包括卡耐基梅隆大学的杰弗里·欣顿(Geoffrey Hinton)在内的研究人员开发了“反向传播”作为一种教授网络的方法。这个发展为随后的深度学习革命铺平了道路。2012年,欣顿和其他人推出了AlexNet,这是一个具有约1万个神经元的八层网络,在国际ImageNet挑战中表现出色,凸显了规模和计算的重要性。

反向传播算法是机器学习理论历史上最为重要的一个算法。但直到20世纪80年代中期他才成为了机器学习理论的主流。

反向传播算法最主要的功能是允许一个神经网络在其实际输出和其期待的不一致时,能够主动进行自我调节。更简单的来说,它意味着人们可以通过在每次神经网络犯错误时都及时对其改正来对他们进行训练。之后,反向传播算法就可以修改神经网络的拼接,从而保证它能够在下一次遇到同样问题是不会犯同样的错误。

1988年--朱迪亚-珀尔发表了 "智能系统中的概率推理"。他被认为是贝叶斯网络的发明者。这项工作彻底改变了人工智能领域以及工程和自然科学的许多其他分支。

1988年--罗洛-卡彭特开发了聊天机器人Jabberwacky。其目标是 "以一种有趣、娱乐和幽默的方式模拟人类的自然聊天"。它是通过人类互动创造人工智能的早期尝试。

1991年,互联网的出现使在线连接和数据共享成为可能,无论你是谁,无论你在哪里。由于数据是人工智能的燃料,这在以后将被理解为人工智能的一个关键时刻。

1995年,在Eliza的基础上,聊天机器人A.L.I.C.E(人工语言学互联网计算机实体)被开发。它包括以前所未有的规模收集自然语言样本数据,由互联网促成。

1997年注定是改写AI历史的一年。因为这一年,IBM的深蓝超级计算机赢过了国际象棋冠军Garry Kasparov,使得人们重新评估了人脑与机器大脑的异同。在这场比赛之前,虽然人们都知道深蓝可以比Kasparov更快的处理信息,但是更重要的是,人们并不相信它可以进行战略性的思维。但是这场胜利似乎说明它也可以。
这场胜利虽然仍然无法向研究者表明AI可以在没有明确规则的领域解决问题获得胜利,但已经是整个人工智能领域非常大的飞跃。

2000年,麻省理工学院的辛西娅-布雷泽尔开发了Kismet,一种能够识别和模拟情绪的机器人。

这个阶段的机器人本质上是通过启发式的Pattern Matching(模式匹配)规则来实现与人类的对话程序。就像现在那些客服机器人一样,通过匹配关键词做出相应的回答。但是这样的匹配规则再多再复杂,也不可能穷举出所有答案,所以基本上不可能通过Pattern Matching变成真正的“智能”。

机器学习

2001年,人工智能的新流派出现了:机器学习,顾名思义,就是让机器去学习,人不再给出相应的匹配规则,而是给出相应的例子,由机器主动发现其中规律。

SmartChild机器人就是基于机器学习开发的,他的聊天更加自然。

人工神经网络

2010年机器学习出现了新的领域:人工神经网络。人的大脑是靠超过100亿个神经元,通过网状链接,来判断和传递信息,人工神经网络就是模仿人脑。

这个神经网络的想法可以追溯到1943年,但是需要两样东西:海量数据+强大算力。而这些在之前都是不具备的,只能纸上谈兵。

2010年,互联网的时代,数据飞速暴涨,算力也在指数级持续提升,人工智能的深度学习时代开始。像英伟达GPU这样的图形处理器开始被用于训练深度学习模型。它们继续成为机器学习的核心,彻底改变了人工智能的发展。在2010年代,有两个因素开始发挥作用,完全改变了人工智能:

  • 来自图形处理单元的大量计算能力
  • 从互联网上搜刮的大量数据。


2011年,IBM的自然语言答题计算机Watson参加了Jeopardy(美国著名的智力问答竞赛节目,涉及到历史、文学、艺术、流行文化、科技、体育、地理、文字游戏等等各个领域),它击败了两位前冠军。崩溃的Ken Jennings笑称,“我,以自己的名义,欢迎我们的机器人霸主。”

2012年的6月,谷歌的研究人员Jeff Dean和Andrew Ng将他们从Youtube视频上截取下来的一千万张没有标签的图片输入了一个由一万六千台计算机处理器组成的巨型神经网络中。虽然他们并没有给出任何关于这些图片的信息,AI却已经能够通过深度学习的算法分辨出猫科动物的图片。

2016年3月,谷歌的AlphaGo打败了围棋世界冠军李世石。整场比赛有世界各地6千万人围观。而之所以这场比赛有着划时代的意义,是因为围棋选择落子的可能性超过了这世界原子的数量。这估计是AI至今为止最为令人瞠目结舌的一场胜利了。

Transformer

2017年,谷歌出来一篇论文,提出一个新的学习框架叫Transformer,它可以让机器同时学习大量的文字,之前要一个一个学,现在可以同时学。这使得AI的性能有了质的飞跃。

用电路串联,并联类比,学习效率就提高了很多。如今的生成型AI模型都是在这个transformer的基础上的。chatGPT的全称是chat Generative Pre-trained Transformer(生成型预训练变换模型),其中GPT的T就是Transformer。Google的BERT也是Transformer(BERT的全称是Bidirectional Encoder Representation from Transformers,预训练的语言表征模型)。

2018年,LLMs(大型语言模型)出现了。LLMs是一种在海量文本数据上训练过的人工智能系统。它们可以理解自然语言,并对输入产生类似人类的反应。LLMs使用先进的机器学习算法来理解和分析人类语音。它们被用于聊天机器人、虚拟助手、语言翻译、内容创作和科学研究。作为其中的代表,OpenAI推出了GPT(Generative Pre-trained Transformer)。这成为自然语言处理中最重要的突破之一。

2019年,ChatGPT参加了在伦敦举行的“图灵测试”,并成功通过了这项由英国计算机科学家艾伦·图灵设计的著名测试。在测试中,ChatGPT能够与人类进行自然对话,表现出类似于人类的思考和推理能力,从而成为了第一个通过图灵测试的AI模型。

这一事件对人工智能领域具有重大意义,证明了人工智能在自然语言处理方面的强大能力。ChatGPT的成功也为其背后的公司OpenAI赢得了声誉和大量投资。

2020年,ChatGPT的研究者在《自然》杂志上发表了一篇题为《语言模型ChatGPT在各种自然语言基准测试中的表现》的论文。这篇论文详细介绍了ChatGPT在各种自然语言处理任务中的表现,包括文本生成、文本分类、问答系统等。

论文的发表进一步提高了ChatGPT的知名度,并为自然语言处理领域的研究者提供了宝贵的参考。此外,这一事件也表明了人工智能领域对于高质量数据的重视,以及数据科学在当今研究中的重要地位。

2022年11月30日 - OpenAI推出聊天机器人ChatGPT。它是建立在GPT-3.5和GPT-4大型语言模型之上的。

ChatGPT根据用户的提示,生成类似人类的文本。它根据它在训练过程中从大量数据中学习到的模式,预测给定文本中的下一个词。当你提示ChatGPT时,它使用 "转化器架构 "来回应。这是一种深度学习技术,通过包含数十亿字的TB级数据来创造一个答案。

2022年12月4日,ChatGPT达到100万用户,2023年1月,ChatGPT的月度活跃用户就达到了1亿人。它是 "历史上增长最快的消费者应用程序"。

ChatGPT

2015年,OpenAI由Elon Musk、Sam Altman、Reid Hoffman、Jessica Livingston等人创立,是一个非营利组织。他们的任务是花费10亿美元来保护人类免受邪恶人工智能的伤害。但因为特斯拉的自动驾驶也需要ai方面的研究,为了避免和OpenAI的利益冲突。马斯克后来退出了这项交易,OpenAI开始接受企业的资助。

2018年,OpenAI公司发布了第一个版本的GPT(Generative Pre-trained Transformer)模型,它是一种基于深度学习的语言模型,可以自动生成自然语言文本。GPT-1采用了Transformer结构,可以对大量的文本数据进行预训练,从而学习到语言的语法和语义特征,并且可以通过fine-tuning的方式进行特定任务的微调。

2019年,OpenAI公司于发布了GPT-2模型,这是一个更加强大的语言模型,具有更多的参数和更高的预测能力。GPT-2模型可以生成更加自然、连贯的文本,其预训练模型也包含了更多的数据和知识。但是,由于担心GPT-2模型被滥用,OpenAI公司只发布了部分模型和数据,并且限制了其访问和使用。

2020年,OpenAI公司推出了GPT-3模型,这是一个非常大型和强大的语言模型,拥有1750亿个参数,可以处理各种复杂的自然语言任务。GPT-3模型可以生成高质量、逼真的自然语言文本,并且可以进行多种类型的语言任务,如问答、翻译、摘要、生成等。GPT-3模型被广泛认为是目前最先进的自然语言处理技术之一,它的应用前景非常广泛。

2022年一月,OpenAI公司发布了ChatGPT-3,这是一个基于GPT-3模型的聊天机器人,可以进行自然、流畅的对话,并且可以回答各种类型的问题。

ChatGPT-3利用GPT-3模型的强大语言处理能力,可以实现更加智能化、人性化的对话体验。它可以应用于多种领域,如智能客服、语音交互、智能家居、金融投资等,具有非常广泛的应用前景。

2023年3月,OpenAI发布了其下一代大型语言模型GPT-4,这是其支持ChatGPT和新必应等应用程序的最新AI大型语言模型。该公司表示,该模型在许多专业测试中的表现超出了“人类水平”。GPT-4, 相较于ChatGPT(GPT-3.5)有了质的飞跃,逻辑推理能力更强,语言能力更强,各种考试已经基本超过90%的人类!

未来

关于AI的未来,最令人兴奋的是它们将不断变得更加善于理解和回应我们人类。很快,它们将变得非常高效。但这还不是全部。AI将能够处理不仅是文本,还包括图像和声音,并且将使用世界各地的语言。此外,人们正在努力确保这些AI模型是公平和负责任的,以使其更加开放和减少偏见。

就在刚刚,11月7日凌晨2点,OpenAI在美国旧金山举行首场开发者大会。OpenAI将GPT大模型更新到GPT-4 Turbo版本,并进一步完善大模型开发的业务架构,包括推出吸引软件开发者的“商店”产品、推出版权盾、提供API开发助手等。AI的发展已经超出了你的想象。

总之,AI将成为我们惊人的伙伴,并以不可思议的方式与速度来改变我们的生活,一起拭目以待吧。


参考资料:

1、陈巍:ChatGPT发展历程、原理、技术架构详解和产业未来 (收录于GPT-4/ChatGPT技术与产业分析) - 知乎

2、https://www.jiemian.com/article/8893975.html

3、https://baike.baidu.com/item/ChatGPT/62446358?fr=ge_ala

4、https://baijiahao.baidu.com/s?id=1756585184519481965&wfr=spider&for=pc

5、https://www.huxiu.com/article/800724.html

6、https://baijiahao.baidu.com/s?id=1762792484134390671&wfr=spider&for=pc
7、https://wandb.ai/mostafaibrahim

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1204102.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

JSON.parse --- 搜索框

一 &#xff0c; JSON.parse this.num_normsTwo JSON.parse(res.result.normsTwo) 二. 搜索框 <template><div class"app-container"><span style"margin-left:120px;margin-right: 20px;width: 100px; display: inline-block;">物…

大语言模型可以学习规则11.13

大型语言模型可以学习规则 摘要1 引言2 准备3 从假设到理论3.1 诱导阶段&#xff1a;规则生成和验证3.2 演绎阶段&#xff1a;使用规则库进行显式推理 4 实验评估实验装置4.2 数字推理 5 相关工作 摘要 当提示一些例子和中间步骤时&#xff0c;大型语言模型&#xff08;LLM&am…

【网络豆送书第六期】《嵌入式虚拟化技术与应用》

作者简介&#xff1a;一名云计算网络运维人员、每天分享网络与运维的技术与干货。 公众号&#xff1a;网络豆云计算学堂 座右铭&#xff1a;低头赶路&#xff0c;敬事如仪 个人主页&#xff1a; 网络豆的主页​​​​​ 本期好书推荐&#xff1a;《嵌入式虚拟化技术与应用…

面试 | 再也不怕被问 Binder 机制了

Binder 机制 Binder 机制是 Android 特有的一种进程间通信&#xff08;IPC&#xff09;方式 1.1 Binder 机制的作用和原理&#xff1f; Linux系统将一个进程分为用户空间和内核空间。对于进程之间来说&#xff0c;用户空间的数据不可共享&#xff0c;内核空间的数据可共享&a…

Django下的Race Condition漏洞

目录 环境搭建 无锁无事务的竞争攻击复现 无锁有事务的竞争攻击复现 悲观锁进行防御 乐观锁进行防御 环境搭建 首先我们安装源码包&#xff1a;GitHub - phith0n/race-condition-playground: Playground for Race Condition attack 然后将源码包上传到Ubuntu 为了方便使…

python双端队列_中间是头两边是尾_两边是头中间是尾

双端队列的顺序表存储结构以及两种特殊的双端队列 双端队列 是一种允许我们同时从前端和后端添加和删除元素的特殊队列&#xff0c;它是队列和栈的结合体。 双端队列&#xff08;deque&#xff09;与队列&#xff08;queue&#xff09;就差了两个字&#xff0c;队列里元素只能…

uniapp——项目day04

购物车页面——商品列表区域 渲染购物车商品列表的标题区域 1. 定义如下的 UI 结构&#xff1a; 2.美化样式 渲染商品列表区域的基本结构 1. 通过 mapState 辅助函数&#xff0c;将 Store 中的 cart 数组映射到当前页面中使用&#xff1a; import badgeMix from /mixins/tab…

2023年【建筑电工(建筑特殊工种)】找解析及建筑电工(建筑特殊工种)复审考试

题库来源&#xff1a;安全生产模拟考试一点通公众号小程序 建筑电工(建筑特殊工种)找解析是安全生产模拟考试一点通生成的&#xff0c;建筑电工(建筑特殊工种)证模拟考试题库是根据建筑电工(建筑特殊工种)最新版教材汇编出建筑电工(建筑特殊工种)仿真模拟考试。2023年【建筑电…

1 Supervised Machine Learning Regression and Classification

文章目录 Week1OverViewSupervised LearningUnsupervised LearningLinear Regression ModelCost functionGradient Descent Week2Muliple FeatureVectorizationGradient Descent for Multiple RegressionFeature ScalingGradient DescentFeature EngineeringPolynomial Regress…

数据结构线性表——栈

前言&#xff1a;哈喽小伙伴们&#xff0c;今天我们将一起进入数据结构线性表的第四篇章——栈的讲解&#xff0c;栈还是比较简单的哦&#xff0c;跟紧博主的思路&#xff0c;不要掉队哦。 目录 一.什么是栈 二.如何实现栈 三.栈的实现 栈的初始化 四.栈的操作 1.数据入栈…

CTFhub-RCE-读取源代码

源代码&#xff1a; <?php error_reporting(E_ALL); if (isset($_GET[file])) { if ( substr($_GET["file"], 0, 6) "php://" ) { include($_GET["file"]); } else { echo "Hacker!!!"; } } else {…

重磅!2024QS亚洲大学排名出炉!北大蝉联榜首,港大反超新国立、清华!

2023年11月8日&#xff0c;全球高等教育分析机构QS Quacquarelli Symonds发布了2024年QS世界大学排名&#xff1a;亚洲大学排名。 本次排名全方位评估了来自亚洲25个国家和地区的856所大学在全球认可度、研究实力、教学资源和国际化等方面的表现&#xff0c;有148所院校首次跻…

绝望了,软件测试的行业基本盘,崩了......

不得不承认&#xff0c;现在工作不好找 去年很多人都觉得今年的就业环境会好很多&#xff0c;但是到了现在都发现之前想错了&#xff0c;实际上是一塌糊涂… 于是有了很多年轻人焦虑日常的灵魂一问&#xff1a;“快半年了&#xff0c;找不到工作&#xff0c;我好焦虑&#xf…

Git的GUI图形化工具ssh协议IDEA集成Git

一、GIT的GUI图形化工具 1、介绍 Git自带的GUI工具&#xff0c;主界面中各个按钮的意思基本与界面文字一致&#xff0c;与git的命令差别不大。在了解自己所做的操作情况下&#xff0c;各个功能点开看下就知道是怎么操作的。即使不了解&#xff0c;只要不做push操作&#xff0c…

LeetCode-剑指 Offer 22. 链表中倒数第k个节点(C语言 )

目录捏 一、题目描述二、示例与提示三、思路四、代码 一、题目描述 给定一个头节点为 head 的链表用于记录一系列核心肌群训练项目编号&#xff0c;请查找并返回倒数第 cnt 个训练项目编号。 二、示例与提示 示例 1&#xff1a; 输入&#xff1a; head [2,4,7,8], cnt 1 输…

Linux 源码包安装

SRPM 包&#xff0c;比 RPM 包多了一个“S”&#xff0c;是“Source”的首字母&#xff0c;所以 SRPM 可直译为“源代码形式的 RPM 包”。也就是说&#xff0c;SRPM 包中不再是经过编译的二进制文件&#xff0c;都是源代码文件。可以这样理解&#xff0c;SRPM 包是软件以源码形…

新生儿母乳过敏:原因、科普和注意事项

引言&#xff1a; 母乳过敏是一种较为罕见但可能令家长担忧的现象。母亲通常认为母乳是新生儿最安全、最适合的食物&#xff0c;然而有时候宝宝可能对母乳中的某些成分产生过敏反应。本文将科普新生儿母乳过敏的原因&#xff0c;提供相关信息&#xff0c;并为父母和监护人提供…

轻量封装WebGPU渲染系统示例<27>- 浮点RTT纹理(源码)

当前示例源码github地址: https://github.com/vilyLei/voxwebgpu/blob/feature/rendering/src/voxgpu/sample/FloatRTT.ts 当前示例运行效果: 此示例基于此渲染系统实现&#xff0c;当前示例TypeScript源码如下: const floatRTT { diffuse: { uuid: "rtt0", rttTe…

SPC on-line 应用探讨

中国是制造业大国&#xff0c;大部分工厂主要重点是将原料经由加工制造过程&#xff08;或流程&#xff09;转变为最终可销售的产品或服务。”产品”是经过被定义的规格下&#xff08;定义规格者包含客户、制造商本身、供应商…等&#xff09;&#xff0c;在经过”受控制”的人…