OpenAI对实现AGI的长期和短期的计划:《Planing for AGI and beyond》
返回论文和资料目录
原文地址
1.导读
OpenAI最近这些年发布了很多令人印象深刻的模型,毫无疑问,OpenAI已经走在了人工智能领域的最前沿。但是很多人只注意到这些模型,却忽略了OpenAI一直以来发布的模型都是为了实现AGI(强人工智能)这一点。2023年2月14号,OpenAI发布了《Planing for AGI and beyond》一文,给出了对AGI的一些思考和计划,下面给出其内容解读。
2.原文翻译
积极的一面
从社会和人类角度来看,OpanAI认为AGI的实现不仅可以帮助提升生产力和全球经济,还可以帮助人类的科学研究。
从个人角度来看,OpanAI认为AGI可以为每个人提供“新能力”(例如现在,许多人使用ChatGPT帮助工作)。
消极的一面
同时,AGI的使用存在巨大风险,可能造成严重的事故,影响社会或是整个人类。
但由于AGI巨大的积极意义,我们应该思考的是如何正确使用和控制它,而不是直接禁止。
关于AGIOpenAI最关心的3件事
- OpenAI希望最大化AGI对人类的帮助。即最大化积极的一面,最小化消极的一面
- OpenAI希望每个人都能公平地得到AGI带来的收益。
- OpenAI希望能成功应对巨大的风险。
2.短期计划for AGI
OpenAI认为现在有几件事情很重要,可以为应对AGI的到来做好准备。
首先,随着不断创建更强大的系统,OpenAI希望能够在现实世界中部署它们,并获得操作它们的经验。OpenAI认为这是谨慎地引导AGI进入现实的最佳方式——渐进过渡到拥有人工智能的世界比突然过渡更好。OpenAI预计强大的人工智能将加速世界的进步速度,认为逐步适应这一变化是更好的选择。
渐进式过渡可以让人们、政策制定者和机构有时间了解正在发生的事情,亲身体验这些系统的利弊,调整我们的经济并制定规章制度。这也允许社会和人工智能共同进化,让人们在风险相对较低的情况下共同找出他们想要什么。
OpenAI目前认为,成功地应对AGI部署挑战的最佳方式是建立一个紧密的反馈循环,进行快速学习和仔细迭代。
OpenAI说随着系统越来越接近AGI,他们对模型的创建和部署也会变得越来越谨慎。
总的来说,这部分是OpenAI的安全声明书,并没有给出具体的技术路线
2.长期计划for AGI
下面是以OpenAI的第一人称的翻译:
我们认为,人类应该决定人类的未来。因此,公开分享科技进步的信息是至关重要的。在推进人工智能的同时,我们也应该进行严格的审查,并向公众征求意见,以应对可能出现的问题。
虽然第一个人工智能只是连续智能体中的一个节点,但我们相信,这种技术的进步将会持续很长一段时间,并以我们在过去十年中看到的速度继续发展。如果确实如此,我们的世界将会发生巨大的变化,风险也会随之增加。一个不稳定的超级人工智能将给世界带来严重的伤害,而一个拥有决定权的专制政权也可能做出同样的事情。
人工智能对科学的加速发展是一个特例,因为它可能比其他任何东西都更有影响力。如果人工智能拥有足够的自我加速能力,它可能会导致世界的重大变化以惊人的速度发生。我们认为,减缓这种技术的发展速度,可以帮助我们更好地适应这些变化,并确保人类的安全。即使在没有技术对准问题的情况下,减缓人工智能的发展也很重要,因为它需要时间让社会适应这种变化。
成功地转型到一个拥有超级人工智能的世界可能是人类历史上最重要的、最具有希望和最可怕的项目。因此,我们需要团结一致,共同面对这个挑战。我们希望为世界创造一个繁荣昌盛的人工智能,带来更美好的未来。