大家好,我是极智视界,欢迎关注我的公众号,获取我的更多前沿科技分享
邀您加入我的知识星球「极智视界」,星球内有超多好玩的项目实战源码和资源下载,链接:https://t.zsxq.com/0aiNxERDq
这几天,关于 OpenAI 首席执行官山姆·奥特曼的 "被解雇" 风波闹得沸沸扬扬,目前奥特曼已经重回 OpenAI,事件似乎逐渐有收场的趋势。我之前也写过几篇文章进行数理、分析和解读,可以回顾一下,
- 《详细梳理山姆·奥特曼离职闹剧 仍试图重返OpenAI》
- 《OpenAI | 解雇奥特曼后 ChatGPT将何去何从》
但是回过头来看,大家才反应过来,之前一直都是在看好戏、在看奥特曼的表态、在看微软的表态,似乎忽略了一个重要因素,那就是为啥 Ilya Sutskever 一开始会这么 "反常" 将奥特曼扫地出门呢?从整个事件来看,Sutskever 并不是想夺权,而确实像之前一直报道的是 "为了 AI 的安全"。所以,真的要不是受到了什么刺激,估计 Sutskever 并不会这么 "反常"、这么 "固执己见"。那这个刺激到底是什么呢?现在似乎有了答案,一切的一切可能都是因为 Q-Star -> 这个被 Sutskever、被多名 OpenAI 研究人员认为可能成长为真正 AGI 的模型,一个可能会对全人类造成威胁的模型。
那么从这个角度来说,Q-Star 应该就是 GPT 的下一代,它的定位有可能是 GPT4.0 到 GPT5.0 的过渡,也有可能直接就是 GPT5.0。其实不管是哪一代,其实都有很明显的信号,那就是 OpenAI 认为 GPT5.0 可能真的意味着 AGI 的到来。GPT4.0 的下一代 (也就是这里的 Q-Star) 智力水平肯定十分强大,这种强大是能够让人觉得后怕的那种。这也许就是为什么以 Sutskever 为首的 "保守派" 相当固执地致力于它的安全性、希望能够谨慎使用它,这种 "执念" 不惜让他萌生赶走 "激进派" 的奥特曼。但后来 Sutskever 估计也没有意识到,奥特曼的离职风波会闹的这么大、这么不可收场,而且是深深伤害了 OpenAI,所以他后来态度 180 度大转弯,转而 "支持" 奥特曼重返 OpenAI。当然, Sutskever 的这种 "支持" 绝对不会是 "服服帖帖" 的支持,而是不希望看到 OpenAI 继续受到如此大的伤害。
奥特曼和 Sutskever 思考的方式不一样,奥特曼以推进 OpenAI AGI 技术的快速发展而自豪,为 OpenAI 的资本扩张而努力;而 Sutskever 也是为 OpenAI AGI 技术的快速发展而自豪,但他不太会过多地去考虑资本市场,在他的层次、从他的角度,会更加多地考虑 AI 安全,这点也是很能让人理解的。
这么一来,其实奥特曼整个离职风波的前因后果都理顺、讲得通了。
再回过头来看 Q-Star,我去翻了一圈外网,相关的报道其实并不算多,大多也还是停留在大家的猜测上。路透社最先报道了 "OpenAI 研究人员警告董事会在首席执行官被罢免之前的 AI 突破",这里就是指的 Q-Star。随之华尔街见闻也跟着报道 "警告 AI 重大新突破或危及人类"。两家知名网站的揭露,一下子就把 Q-Star 可能成长为 AGI、威胁人类的论调推向了高潮。
说说我的观点,Q-Star 应该是数学能力上有了突破,Q-Star 从命名上来看可能与强化学习中的 Q-learning 算法有关,这是一种评估在特定情境下采取特定行动并反馈好坏的方法,其中会涉及 Q-Value 和 Bellman 方法,这些都是强化学习中的重要概念,可以用于指导 AI 在不同情境下做出最优决策。如果是这样,可能 Q-Star 中已经融入一部分的强化学习技术,大家应该知道,强化学习是一种典型的 反馈-学习 的技术,是实现在线学习的一种途径。但是考虑到算力消耗,要真正实现在线学习,几乎是不可能的。
我其实对于目前大模型的这种方式来实现 AGI 表示怀疑,我心目中的 AGI 所依赖的算力功耗不应该是目前这么庞大的,这就像人脑一样,咱们的智力水平这么高但是功耗却很低。我心目中真正的 AGI 应该是那种低功耗却能提供无穷无尽的智力,它可以一开始一无所知,但是它能够超级快速地自我学习、自我反馈。这种模式可以借用咱们国产大模型厂商的一个名字,我觉得取得挺好,那就是 "零一万物",零生一、一生万物。在这样的角度下,目前拥有的不管是 OpenAI 的 GPT 模型,还是 Meta 的 LLaMA 模型,都不是那种 "理想形态"。这主要体现在,一是它们消耗的算力实在过于庞大,这就像一堆二愣子堆出来一个小孩子一样;二是它们对于开放世界的在线学习能力特别有限,甚至是没有,现在多是借助外挂。目前你要想让它们像咱们人脑一样实时在线学习,那是不可能的,所以这根本不像 AGI 的生存形态。
现在的基于 Transformer 的大模型算力依旧是依靠晶体管的堆叠,这种冯诺依曼的架构在超高算力场景下的 "各种墙",比如存储墙、比如功耗墙,注定不会让算力无止尽。你不要看英伟达现在如此风光,明年要发布的新一代 GPU 性能多么地 "无止尽",需要清楚的是现在认为的算力高,只是堆出来的,并没有本质上解决低功耗超高算力的问题。
而我会更加看好量子计算、量子机器学习、类脑计算的研究 (存内计算也许算一种过渡但也不算终极答案,但是存内计算会比现在的计算模式更加先进,这点毋庸置疑),也许未来还有其他方向的研究,但实现 AGI 绝对不会是目前的这套解决方案。所以从我的角度,Q-Star 不会是 AGI,要实现 AGI,不仅仅是目前这套深度学习模型架构还得换代 (这种换代就像是从卷积神经网络换代到 Transformer 一样,Transformer 还得继续换代到下一代),而且算力提供的方式也得换代 (基于晶体管的堆叠,对于无穷尽的算力需求是不可能实现的)。要实现 AGI,绝没有这么简单,也没有这么快。
或许,几年后回过头来看,Q-Star 可能只是一个知识能力更强的 GPT 模型而已,而它也只是一次顺着 "离职风波" 热度的商业炒作罢了。
当然,毫无疑问的是,OpenAI 依旧是最接近 AGI 的组织。
【极智视界】
《外网讨论疯了的神秘模型Q*(Q-Star)究竟是什么?OpenAI的AGI真的要来了吗 | 详细解读》
畅享人工智能的科技魅力,让好玩的AI项目不难玩。邀请您加入我的知识星球,星球内我精心整备了大量好玩的AI项目,皆以工程源码形式开放使用,涵盖人脸、检测、分割、多模态、AIGC、自动驾驶、工业等。一定会对你学习有所帮助,也一定非常好玩,并持续更新更加有趣的项目。https://t.zsxq.com/0aiNxERDq