每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
OpenAI预计明年将推出“代理”系统,这是一种无需人类干预、能自主完成各种任务的独立AI模型,未来或将集成到ChatGPT中。
在旧金山举行的首届OpenAI开发者日活动上,CEO山姆·阿尔特曼(Sam Altman)表示,“2025年代理系统将投入使用”,并展示了一款早期的代理能力样例:一个语音助手独立拨打电话并订购草莓。这表明AI技术正在向自主决策和行动迈进。
OpenAI解释称,人工智能通用技术(AGI)的发展分为五个阶段。目前我们处于第二阶段,AI可以在做出反应前推理。而代理系统标志着第三阶段的开始,意味着AI不仅能推理,还能独立执行任务。
阿尔特曼曾提到,OpenAI的o1系列模型具备推动“代理”系统发展的能力,预计首批模型将很快问世。不过,确保这些模型与人类价值观保持一致并避免“失控”行为是主要的挑战,也是可能导致延迟的原因。
代理系统的目的
构建实用且功能强大的代理系统是所有AI实验室的共同目标。比如,代理系统不仅可以写书,还能自动完成自我出版的流程,包括注册亚马逊账户并在Kindle Direct上发布书籍。
阿尔特曼预计,未来人们将向代理提出原本需要一个月才能完成的任务,而代理可以在一小时内搞定。他还提到,随着技术进步,代理将成为实现AGI的重要一步,因为AGI需要能够自主执行必要任务以实现其目标。
OpenAI计划通过不断迭代AI模型,实现这一目标。阿尔特曼指出,o1系列模型将使代理系统成为现实,并且“当人们开始使用代理时,将会是一个重大事件。”他补充说:“人们将要求代理完成需要一个月才能做完的事情,而代理只需一个小时。”
代理系统的挑战:对齐与安全
实现AI代理最关键的难题是对齐问题,也就是确保代理的行为符合人类的价值观和利益。每次发布新模型时,OpenAI都会进行严格的安全测试,确保模型在符合安全标准的前提下才能发布。这一过程曾导致模型发布的延迟,并需要为模型设置“防护栏”以阻止某些潜在的有害行为。
一个明显的例子是GPT-4o模型,尽管具备生成图像、音乐和模仿声音的能力,但这些功能被“防护栏”限制,用户无法直接使用。然而,偶尔防护栏也会失效,表明模型实际上是能够实现这些功能的。
代理系统的防护栏问题尤为重要,因为代理可能获得银行账户的访问权限、在线执行任务,甚至雇佣他人在Fiverr平台上代为完成任务。在开发者日的演示中,一个语音机器人模拟助手与卖家通话,订购了400颗巧克力草莓,提供了特定地址,并声明用现金支付。尽管机器人宣称自己是AI助手,但从对话中很难分辨它的AI身份。
OpenAI首席产品官凯文·威尔(Kevin Weil)对《金融时报》表示,“我们希望让人们能够像与他人互动一样与AI互动。”他补充道,明年代理系统将进入主流市场,推动这一目标的实现。
威尔还指出,代理系统的一个防护措施是强制要求代理系统始终表明其AI身份。然而,如果你见过GPT-4o生成的完美矢量图形或听过Advanced Voice的拟声表演,你就会知道这些限制有时并不完善。
代理系统的未来展望
对于代理系统的到来,许多人充满期待。开发人员认为,代理将帮助加快开发流程,特别是在自动化测试等枯燥环节。此外,代理还能帮助人们处理大量未读邮件,正如一位开发者所言,“如果为了清空收件箱而不得不面对天网(Skynet)的崛起,那就让终结者来吧。”