随着人工智能技术的不断进步,AGI(通用人工智能)的实现似乎不再是遥不可及的梦想。近日,OpenAI联合创始人兼首席架构师约翰·舒尔曼(John Schulman)在访谈中分享了他对AI模型未来发展的看法,并预言在三到五年内,真正意义上的AGI将会问世。这一预测无疑引起了广泛关注。那么,舒尔曼在访谈中具体讨论了哪些内容?本文将对其观点进行详细解析。
AGI的未来定位:人类助手还是主人?
在访谈中,舒尔曼明确表示,他认为未来的AI始终是人类的助手,而非主宰者。当前的AI训练主要是对从互联网中抓取了大量内容的模型进行优化,以满足人类的需求。这些训练后的模型不仅能够生成各种内容,还可以根据要求排列内容,实现特定功能。舒尔曼期望未来的AI能够更加主动,不仅仅是一个执行一次性查询的工具,而是能像一个乐于助人的同事,参与到用户的整个项目中,甚至主动提出建议和帮助。
AI模型的技术进化方向
舒尔曼预测,在未来五年内,AI模型将向着“更好的助手”方向进化。例如,AI将能够独立完成整个编程项目,而不仅仅是提供函数建议。同时,AI在执行多线程与长时间任务上的能力也将显著提高,能够长时间编写多个代码文件。此外,通过预训练和后训练的结合,AI的功能将不断改进,开拓新的用例。
他认为,长期进行强化学习训练(RLHF)是实现这一目标的关键。通过投入更多的多模态数据与训练成本,AI将能够在更长时间里保持连贯的能力,并最终处理更长的任务。舒尔曼将这种能力的质变称为“相变”,即一旦模型的规模与学习训练达到某个水平,就能够处理更长的任务,并制定学习计划朝着目标前进。
技术瓶颈与挑战
舒尔曼坦率地承认,当前AI模型面临的主要问题包括:
- 难以预测的杂项缺陷:不同模型的训练承受能力不同,可能会因为过强的学习训练而陷入瓶颈。
- 模型局限性:当前模型可能存在意料之外的问题,如幻觉等。
- 训练数据不足:对于大型语言模型来说,互联网中的可供学习资料可能会不够用。
- 聊天功能优化:AI的语言风格过于僵硬与公式化,需要优化以提高人性化程度。
舒尔曼认为,通过强学习训练,这些问题在两到三年内都可以得到解决。
AI监管与社会影响
关于AI对社会的影响,舒尔曼表示,整个社会需要拿出一套可以安全地处理AI的解决方案,包括政府如何应对潜在的失业潮、AI在道德伦理上的风险、以及在企业应用中增加的信息安全隐患等。他建议,通过部署性能较弱的模型,并逐步对其性能进行升级,来确保AI系统的安全性。同时,他也寄希望于监管技术的进步,以便在系统出现问题时能够立即发现。
舒尔曼还提到,AI公司在许多方面可能会表现得更加高效,但也存在更高的尾部风险。这是因为AI在处理非常少见的情况时,仍然缺乏足够的样本,可能导致大规模故障。因此,他建议不要大规模投入AI到公司管理,但也不完全否定AI公司的可能性。
中小企业与个人开发者的建议
对于中小企业和个人开发者,舒尔曼提出了使用“蒸馏”模型的方法,即将一个复杂而且规模较大的教师模型中的知识提取出来,传递给一个相对较小且结构简单的学生模型,从而减少模型的复杂度,易于部署和运行。这种方法既保留了模型性能,又减少了复杂度,是一种实用性很强的解决方案。
结论与未来展望
综上所述,舒尔曼对AGI的未来充满信心,并预言在2027年将实现AGI。但他也指出,社会需要做好迎接更高性能AI的准备,并采取有效的监管措施,以确保AI系统的安全性和公平性。对于开发者来说,充分利用现有的技术,并不断探索新的方法,是在AI领域取得成功的关键。
未来的三到五年中,我们将看到人工智能在科学研究和复杂任务上的自主性飞跃,AGI的实现将为人类社会带来深远的影响。作为开发者和研究者,我们应积极拥抱这一技术变革,并为其可能带来的挑战做好准备。