这四家公司表示,他们成立了Frontier Model Forum,以确保"前沿AI模型的安全和负责任的开发"。
四家全球最先进的人工智能公司成立了一个研究日益强大的人工智能并建立最佳控制实践的组织,随着公众对技术影响的担忧和监管审查的增加。
周三,Anthropic、谷歌、微软和OpenAI共同成立了Frontier Model Forum,旨在"确保前沿AI模型的安全和负责任的开发"。
最近几个月,这些美国公司推出了越来越强大的 AI 工具,通过利用一些现有材料,生成原创的图像、文本或视频内容。这些发展引发了人们对版权侵犯、隐私泄露以及 AI 最终可能在许多工作领域取代人类的担忧。
“创造人工智能技术的公司有责任确保它的安全、安全性和保持人类控制,”微软的副主席兼总裁布拉德·史密斯表示,“这一倡议是将科技行业汇聚起来,负责任地推进人工智能并应对挑战,以使其造福全人类的重要步骤。”
该论坛的成员仅限于少数公司,这些公司正在构建“大规模机器学习模型,超越了目前最先进的现有模型的能力”,据其创始人称。
这表明,该论坛的工作将着重于与相对更强大的人工智能相关的潜在风险,而不是回答与版权、数据保护和隐私有关的监管问题,这些问题对监管机构目前来说是相关的。
美国联邦贸易委员会已经对OpenAI展开了调查,调查是否该公司从事“不公平或欺骗性”的隐私和数据安全实践,或者通过制造虚假信息来伤害人们。美国总统拜登已经表示,他将采取行政行动促进“负责任的创新”。
与此同时,人工智能高管们发出了安抚人心的声音,强调他们对危险有意识,并致力于缓解这些危险。上周,四家公司启动了新论坛的高管们在白宫承诺“安全、安全、透明地发展人工智能技术”。
华盛顿大学的计算语言学家Emily Bender在对大型语言模型进行了广泛研究后表示,公司的保证是“试图避免监管;主张自我监管的能力,我非常怀疑这一点。”
她说,将注意力集中在“机器会活过来并掌控一切”的恐惧上是一种转移注意力,“我们实际上需要关注的问题是数据盗窃、监视和让每个人都处于零工经济中。”
她补充说:“监管需要来自外部,需要由代表人民的政府制定,并限制这些公司可以做什么。”
Frontier Model Forum的目标是促进安全研究,并为行业和政策制定者之间提供一个沟通渠道。
类似的组织以前就已经建立过。Partnership on AI成立于2016年,谷歌和微软也是创始成员之一,其成员来自公民社会、学术界和行业,致力于促进AI的负责任使用。