人工智能的发展非常迅速,其潜在风险也变得越来越明显,为此,OpenAI的领导层认为,世界需要一个类似于核能监管机构的国际人工智能监管机构--要尽快建立,但也不能操之过急。
在该公司的一篇博文中(https://openai.com/blog/governance-of-superintelligence#SamAltman),OpenAI 的创始人 Sam Altman、总裁 Greg Brockman 和首席科学家 Ilya Sutskever 解释说,人工智能的创新速度太快,我们不能指望现有的机构能够充分控制这项技术。
虽然以上表述有某种自我表扬的成分,但任何公正的观察者都清楚,目前最引人注目的技术是 OpenAI 备受欢迎的 ChatGPT 对话系统,它既具备一种独特的威胁,但又是一项宝贵的资产。
这篇帖子不出意料之外地在细节和承诺方面比较轻描淡写,但还是承认人工智能不会自我管理:
我们需要在目前领先的开发努力之间进行一些协调,以确保超级智能的发展在保持安全性的同时,能够有助于这些系统与社会的顺利融合。
我们最终可能需要类似于国际原子能机构(IAEA)的国际机构来监管超级智能的开发;任何超过一定能力(或计算等资源)门槛的努力都需要接受国际权威机构的监督。该机构可以进行系统检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别施加限制等。
IAEA 是联合国在核能问题上进行国际合作的官方机构,而基于这一模式建立的人工智能监管机构可能无法直接制止不良行为,但它可以建立并跟踪国际标准和协议,这至少是一个起点。
OpenAI 的帖子指出,跟踪用于人工智能研究的计算能力和能源使用情况,是相对来说应该能被报告和跟踪的少数客观措施之一。虽然我们很难确定人工智能应该用于何种目的,但是可以主张对其专用资源进行监督和审计,就像其他行业在做的一样。OpenAI 公司建议,小型公司可以得到豁免,以避免扼杀创新的绿芽。
领袖级的人工智能研究员和评论家 Timnit Gebru 在接受《卫报》采访时也说了类似的话:"除非有外部压力要求采取不同的做法,否则公司不会进行自我监管。我们需要监管,我们需要比单纯的利润动机更好的东西"。
OpenAI 已经明显地接受了监管的趋势,这让许多希望 OpenAI 名副其实、真正开放的人感到惊愕,但至少作为市场领导者,OpenAI 也在呼吁在治理方面采取实际的行动 -- 而不是像最近的听证会那样,参议员们排队发表通篇问号而于事无补的连任演讲。
虽然 OpenAI 的建议相当于 "也许我们应该做点什么",但它至少是开始启动了这个行业的对话,并表明世界上最大的单一人工智能品牌和供应商支持做这些事情。人工智能迫切地需要公共监督,但 "我们还不知道如何设计这样一个机制"。
尽管 OpenAI 的领导人说他们支持对 AI 轻踩刹车,但该公司目前还没有这样做的计划,因为他们不想放弃 "改善我们的社会"(更不用说同时也不想放弃 “改善其财务报表底线”)的巨大潜力,也因为存在着坏家伙们正踩下油门的风险。(译者按:无所适从或是不知从何下手的两难局面)
作者丨Devin Coldewey
译者丨刘天栋 Ted
审校丨LsssY
编辑丨罗蕊艳
相关阅读 | Related Reading
Timnit Gebru 谈到她被谷歌解雇、人工智能的危险和大型科技公司的偏见
超级智能的治理
开源社简介
开源社成立于 2014 年,是由志愿贡献于开源事业的个人成员,依 “贡献、共识、共治” 原则所组成,始终维持厂商中立、公益、非营利的特点,是最早以 “开源治理、国际接轨、社区发展、项目孵化” 为使命的开源社区联合体。开源社积极与支持开源的社区、企业以及政府相关单位紧密合作,以 “立足中国、贡献全球” 为愿景,旨在共创健康可持续发展的开源生态,推动中国开源社区成为全球开源体系的积极参与及贡献者。
2017 年,开源社转型为完全由个人成员组成,参照 ASF 等国际顶级开源基金会的治理模式运作。近九年来,链接了数万名开源人,集聚了上千名社区成员及志愿者、海内外数百位讲师,合作了数百家赞助、媒体、社区伙伴。