转载自 AI 源起
GPT的出现,不得不说是人类整个科技发展史上的里程碑。那么你知道GPT到底有多聪明吗?它的边界在哪?我们这个系列将为您着重阐述这一点。
人的专长、工作和经济
GPT-4在一系列任务和领域中的卓越表现将挑战关于人类和机器在许多专业和学术领域的相对专长的传统观念和假设。
人们无疑会对GPT-4在专业水平和认证考试中的表现感到惊讶,如医学和法律领域的考试。他们还将赞赏该系统在诊断和治疗疾病、发现和合成新分子、教授和评估学生以及在互动会议中对复杂和具有挑战性的话题进行推理和争论的能力。
GPT-4和其他法律硕士所展示的能力将引起人们对人工智能进步对高技能和受尊重的职业的潜在影响的关注,在这些职业中,人类和机器的推论可能会以不同的方式相互竞争或相互补充。
一项研究显示,美国医学生对放射学作为职业的选择已经受到了人工智能在放射学中日益增长的作用的影响,这种感觉大大降低了他们选择该专业的偏好。
这一结果可能确实反映了整个需要高级培训的工作的更广泛趋势,人工智能系统可能取代人类工人或降低他们的地位。
随着GPT-4及其后继者在跨专业领域的综合和推理能力的提高,以及进行机器翻译、总结,甚至创造性的写作,适合由人工智能实现某种形式的自动化的任务范围可能会大大扩展。
GPT-4和相关的法律硕士的出现,可能会刺激人们讨论在教育、培训和发展专业知识方面的多年投资的作用,以及根据人工智能的新能力来调整、重新培养或重新定位职业道路的必要性。
五年前,一项研究提出了一个评分标准,用于识别那些可以被当时领先的(有监督的)机器学习技术自动化的任务,包括一些标准,如任务有明确的输入和输出,以及是否有或是否容易创建有输入输出对的任务数据集。
该研究将美国近1000个命名的职业与职业间共享的任务集进行了映射,这些任务来自2000多个任务,并根据评分标准为每个任务分配了 "机器学习的适合性" 。
然后,作者确定了具有不同比例的适合机器学习的任务的职业分布。随着GPT-4及其后续版本的出现,评分标准的几个关键属性可能不再适用,从而大大改变了可能适合机器学习自动化的任务的分布。
一些角色可能面临着被人工智能崛起的力量降低价值或淘汰的风险。超越对任务自动化的关注,以及对人类各方面潜力的关注。我们看到了未来通过新型的人与人工智能的互动和协作来扩展人类智力和能力的美好前景。
我们期望通过创造性地使用人工智能技术来支持人类的能动性和创造性,并提高和扩展人类的能力,从而为职业的创新和转型提供丰富的机会。
人工智能的进步可以通过无数种方式来实现人类努力和贡献的技能或效率的新水平。这些进步也可以对重新定义职业和与工作相关的日常任务和活动产生重大的积极影响。
对任务、方法和机器的投资,以支持和扩大人类解决问题和决策的能力,可能没有那么明显,也比确定可能被机器自动化的任务集更具挑战性。然而,寻求丰富的手段来利用人类和机器的互补性,以扩大人们的能力,有很大的好处。
关于人与人工智能合作的原则和应用的研究工作突出了地平线上的可能性。迄今为止的研究和成果包括通过实时推断人类和机器贡献的互补性来指导机器和人类智力结合的核心原则,在考虑人类和机器能力的基础上塑造机器学习程序的最大价值,利用人工智能方法来帮助决策者浏览大量的信息,在人工智能系统完善时考虑人类的心理模型,从而可能随着时间的推移改变其行为,并设计支持人类与人工智能互动的系统。
语言模型所展示的力量可以开辟人类和人工智能合作的新维度,包括通过为如何组建理想的人的团队提供指导来增强人与人之间的合作,促进人和机器团队之间的团队工作,以及开发新的方法来网罗多种机器和人力资源以解决挑战性的多维问题。
LLMs有可能产生幻觉和产生有偏见的、操纵性的和有毒的输出,这带来的特殊挑战突出了开发工具的价值,使人们能够与人工智能系统合作,为它们提供监督和指导。研究工作表明,有机会开发特殊的机器和工具来帮助人们认识和解决机器学习中的盲点。
影响因素和考虑因素的组合
我们只触及了社会影响的几个领域。许多影响将凸显出来,包括那些被视为积极和有益的影响,以及那些被视为代价高昂和消极的影响。
基于特殊的权力和参与,新的问题将会出现。从一个角度看,法律硕士的力量不断增强,加上其有限的可用性,有可能造成 "人工智能鸿沟" ,在使用这些系统方面,拥有者和不拥有者之间的不平等日益严重。
人们、组织和国家可能无法获得或负担得起最强大的人工智能系统的使用。每个人口、国家和部门的有限使用权对健康、教育、科学和其他领域都有影响。与一般的人工智能可以是非常有价值的。
如果最新的人工智能模型所创造的强大能力只提供给有特权的群体和个人,那么人工智能的进步会放大现有的社会鸿沟和不平等。
鉴于用最新模型进行培训和推断的财务成本很高,行业将面临关于投资应用的重要决定,并着眼于为历史上被剥夺权利的社区创造机会和价值。
满足这一需求将需要仔细考虑和规划,重新评估激励措施和优先事项,以及考虑在分享最先进的人工智能能力和减轻它们所带来的新风险之间的一套日益复杂的权衡的决策。
在另一个方面,新的保密级别以及对隐私的保证,可能需要人们与更普遍的人工智能系统进行详细和表达式的接触和对话。
在某些情况下,人们和组织将要求模型的私人实例,以确保保护个人或组织的敏感信息和偏好不被记录或泄露。
对隐私的风险也可能来自于新的人工智能力量的推断能力,有一天可能会在日志中捕获推断。除了现实的能力之外,可能还有一种看法,即超级智能的人工智能能力将被用于识别或推断个人或敏感信息。
在另一个方面,记忆和归纳可能导致敏感信息的泄漏。一般人工智能能力的展示可能会扩大对理解人类与机器(或混合)对内容和推理贡献的来源的呼吁。
例如,可能有兴趣或呼吁标记人工智能系统产生的内容的来源。追踪人类与机器的来源可能对减少内容类型和使用方面的潜在混乱、欺骗或伤害很有价值。
与此相关的是,更普遍的人工智能系统的广泛使用将导致世界上充斥着由神经语言模型产生的信息,而这些信息很可能会成为新模型训练的素材,向前推进。
因此,模型训练将面临着利用信息的准确性、可靠性和真实性值得怀疑的挑战。更加普遍的人工智能力量的展示也可能在人们的心目中提高对控制他们对大规模通用人工智能系统所做贡献的需求和重要性,人们可能会要求人类有能力和权利来决定和指定哪些内容他们希望或不希望被抓取并用作训练数据,哪些贡献他们希望用描述个人角色和他们所提供的数据的出处信息来标记。
写在最后:如果您对AI有兴趣,关心技术发展、行业动态,欢迎加入我们的交流群~