说明
本作业为小组作业,要求基于一场报告完成(即观后感)。共分4个小题,讨论人工智能时代的伦理思考。由于版权原因,不提供报告的具体内容,只展示答题内容。
第一题
(1) 你如何看待AI技术被滥用的现象?请从IT公司职业道德和社会责任角度进行分析。(20分)
近年来,AI技术在越来越多的领域都取得了突破性进展。随着人工智能技术的愈发成熟,其核心技术的应用也逐渐低廉化,伴随而来的人类隐私、人身安全、数据滥用等风险也是不能忽视的问题。例如:不法分子利用AI技术把明星艺人的脸部与色情视频表演者的脸部交换、脸书窃取用户信息用于总统选举等。
从职业道德的角度看,报告第23页所述的典型案例,其中的伪造色情视频等,违反了《美国计算机协会(ACM)伦理与职业行为规范》的“一般道德守则”中,“造福社会与人类”、“避免伤害其他人”“诚实可信”“尊重隐私”等诸多要求,也违反了“比较特殊的专业人员的职责”。因为视频的伪造者滥用人工智能技术,没有使其工作具备高度的尊严,漠视相关的法律,侵害女性的名誉权。他们没有尽社会和法律责任,因而违反职业道德。
另一方面,从社会责任的角度看,AI技术的滥用行为违背了对社会发展的责任和对人的责任。首先,精神文明的进步需要思想道德的健康和崇高,需要抵制消除消极、腐朽的内容(包括滥用AI搞黄色)的影响。这一影响同样体现在IT公司及相关从业者,对这个人类社会的责任之中。
正如谷歌首席执行官Stephen Pichai所说,新的人工智能工具,如无人驾驶汽车和疾病检测算法,都应该置道德护栏,并考虑什么是滥用这项技术。当我们使用“滥用”这个词时,我们讨论的现象已经牵涉到IT公司职业道德中“不应该做”的部分了。AI技术是强大的,但它可以做到的事情越多,它可能带来的伤害也越大。一所IT公司若去助长滥用AI技术的行为,不仅抹黑公司本身,更是在对整个行业带来不好的影响。
AI技术能否发展得更好和掌握AI技术的人如何使用它是息息相关的。如果IT公司去做那些“不应该做”的事,例如哗众取宠做换头视频,甚至侵犯隐私做涉黄视频,一定会让大众对AI有害怕的心理,也让政府对这块技术有更多的防范。AI无疑是非常强大的先进技术,但只有当IT公司遵守职业道德,承担社会责任,才能营造一个良好的业界范围,使社会对AI技术有良好的预期与包容。
我们认为针对现阶段AI技术被滥用的问题更应该从掌握技术的主体,即IT公司或技术人员来进行规范,遵守职业道德、承担社会责任不仅只是为了保护大众隐私安全,更是为了这个行业的繁荣发展。科技技术的向前需要包容,需要自由,那么技术被滥用这种容易引起恐慌的行为就更加不能发生,因此IT公司应该自我规范,勇于遵守职业道德、敢于承担社会责任,防止AI技术被滥用,促进AI技术领域的欣欣向荣。
第二题
(2)新闻推荐、招聘算法歧视、犯罪风险评估等人工智能算法,会对人类造成伤害吗?请从软件品质、IT风险及管理角度进行分析。(20分)
我们认为这类人工智能算法会对人类造成伤害。
随着大数据技术和人工智能技术的跃迁式发展,以适配个性化需求为目的的人工智能算法推荐正在成为信息流通领域的新技术范式。在此背景下,算法越来越智能化和程序化,在遵循着自然逻辑和思维逻辑的基础之外,甚至能代替集体智慧进行决策。此外,从当前的传播实践来看,人工智能算法推荐带来的传播变革正在潜移默化地影响着社会生活的方方面面,其中自然潜藏着风险。
从软件品质看,人工智能算法因其软件复杂度大、原理艰深、过程黑箱,在广泛应用的同时也存在风险和危害。从算法推荐结果出发,目前常见的新闻算法推荐机制是平台根据用户的点赞、评论等数据,分析其内在的兴趣和需求,在获取到相对完善的用户画像后,在下一次推送中推荐与用户相匹配的信息内容的基于内容推送方式[1]。这种方式一方面能实现人与信息的高效匹配,节省了用户的时间,但另一方面也让用户在无形之中回避了自身不太感兴趣的内容,只选择性地接触自己感兴趣的话题,长久下来会加剧信息茧形成。
而招聘算法、犯罪风险评估算法则通过是对用户的社交圈层等进行全景扫描,深度挖掘用户的职业、位置、性别、年龄等相关信息,进行标签匹配[1]。在现实的传播实践当中,算法设计主体通常会由于希望达到某种预期结果而特意置顶某些价值诉求或凸显某些价值导向,这就导致价值观的偏见始终存在于算法之中,算法仅仅是把这种价值观偏见通过特定的形式演绎了出来[1]。而在实际中,算法不但会延续这种偏见,还有可能会随着数据体量的扩容和算法的更新迭代而不断强化和放大这种偏见。
从IT风险的角度进行分析,人工智能算法偏见的存在,体现的是应用系统开发中的错误和不完善。
我们认为人工智能算法存在以下几个风险:信息价值失序、信息成瘾、信息窄化。
人工智能推荐算法的广泛应用,让信息生产和流通的把关权力转移到了智能机器和多元的个体化用户手中,在流量至上的利益链条之下,智能算法推荐会更加注重用户的信息偏好,而不是信息本身的公共性价值——只要用户关注,不管信息品质如何,都是头条;只要用户不关注或无兴趣,不管信息内容再有品质,在智能算法眼中也将毫无价值[2]。
人工智能推荐算法对用户投其所好的推送机制前所未有地强化了用户对信息平台的媒介依赖,人们乐此不疲地沉浸在由算法编织的数字世界之中,大把的时间被数字生产和数字消费所消耗。除此之外,智能算法推荐的信息成瘾与娱乐泛化是一脉而生的,消费主义浪潮和智能算法推荐信息致瘾机制的强势推动下,娱乐泛化现象也正在向公共领域蔓延[2]。
人工智能算法强大的信息过滤功能在提升信息配置效率的同时,也在潜移默化中为不同用户群体之间的观点交流和价值融通构筑起了隔离墙——用户更加认同那些志同道合的观点,而对那些竞争性的观点则采取忽略或排斥的态度,长此以往,人们得到的就是一种“窄化”了的信息。
如何对以上存在的风险进行管理呢?我们认为在确定风险和风险分析之后,应着力于在风险规划、风险跟踪以及风险控制阶段。首先,在规划阶段以技术规制算法。在某种程度上,技术带来的很多问题其实都可以通过技术本身的进一步优化和完善而得以解决,通过打开算法的黑盒子,以提升其透明度,最终建立用户与平台之间的信息平衡。其次,离开了主流价值观的引导,人工智能算法会脱缰野马般脱离控制,因此需要把主流价值观作为算法的把关核心,而在风险跟踪阶段,相比先发布、后删除的事后把关模式,我们认为更应该通过加强算法的前置把关,将人工审核和算法审核结合起来,发挥二者的优势,即时反馈风险信息。最后,关于如何控制风险,我们认为以法治规范人工智能是时代趋势,一方面,需要进一步增强相关部门对人工智能算法监管的法治意识;另一方面,就法制本身而言,则需要进一步提高智能算法推荐领域的立法效率,增强立法的前瞻性和实效性。
第三题
(3)人工智能技术是人类的帮手还是敌人?请从信息技术带来的社会影响角度进行分析。(20分)
人工智能是敌是友?我们认为应该辩证来看待。从其工具属性上看,AI和传统的工具一样,能够为人类的生产和生活提供帮助,是人类的好帮手;另一方面,因其技术的不断发展所带来的新的问题,使之很可能成为我们潜在的敌人。
从目前的科技发展水平而言,人工智能技术在很长一段时间内只能作为人类的工具存在,无法达到强人工智能的各项水平与指标。但倘若真的存在有一天,人工智能能够与人类达到同样甚至更高的智力水平,该技术对于社会与人类的意义便有待商榷。
我们应该辩证地思考这一问题:一方面,强人工智能能够为我们带来更便利的生活,更发达的社会模型甚至解决人力无法解决的各种社会、学术、工程问题。强人工智能拥有自己的判断能力,且相较于人类受影响的概率更小,非常适合在医疗、救援、军事、科研等领域进行大规模应用。人工智能超越人类的算力也使得它们可能有能力解决人类在现阶段无法解答的数学、物理或计算机领域的重要问题。就这一点来看,人工智能技术的发展是必要且必须的。
另一方面,人工智能对人类社会的影响,可能早已超出课本所述的“信息权利”“数字鸿沟”“全球化”等等的范畴,在未来,人工智能的空前发达可能导致的是对传统的社会形态、社会结构和社会伦理的空前冲击。
如果人工智能真的强大至此,人类又该何去何从?强人工智能以其机械的属性,能够让他们侵占几乎世界上所有不需要创造性的职业,雇主必然也更倾向于使用不需要工资的人工智能而非人类。彼时失业人口急剧增加,社会保障的发展是否能够适应这种变化还是未知数,而人类本身的价值和意义也将遭受质疑。我们能从“智械危机”(Fig. 1)中看见对于强人工智能反叛的担忧,但人工智能即便不会反叛,其带来的影响都存在严重的两面性。人类对待这一技术的态度理应更加谨慎和理性,加强立法和其他有关规范的工作,深入人工智能伦理问题的研究,思考该如何在尽量减少负面影响的情况下最大化人工智能技术带来的便利。
不论人工智能发展到何种程度,我们都应该使之成为给人类带来平等和福祉的好帮手,而不是加剧人类不平等的工具或者统治人类的新恶魔。
Figure 1:智械危机
第四题
(4)你认为自动驾驶是否存在漏洞,人类是否可以信赖自动驾驶?你认为在无人驾驶汽车交通事故中谁应承担责任?请从IT使用者的风险意识角度进行分析。(20分)
我们认为现阶段,人类不能完全信任自动驾驶技术,而只可将其作为一个辅助工具和科研对象来看待。
首先,我认为目前的自动驾驶技术仍处于不成熟阶段,肯定是存在漏洞的,目前的国际主流的所谓的“自动驾驶”技术也主要是以“计算机辅助驾驶”这一形式存在的。人类距离可以完全信任自动驾驶的目标尚有很远的距离。
在技术上,虽然随着深度学习,强化学习等人工智能和计算机视觉领域的算法的发展,自动驾驶技术在目标检测,路径规划等方面已经达到了很高的标准,但是在一些复杂的情况,例如在极端天气,复杂路况下,面对如此多的“噪声”,我们的自动驾驶算法的识别率也会大受影响,关于“神经网络的鲁棒性”问题的研究也是目前尚在研究阶段的领域;而自动驾驶汽车的事故频发,导致它所面临的伦理道德和社会责任上的问题要比技术问题更为艰巨。
就以近日特斯拉汽车发生的多次交通事故为例,面对无人驾驶交通事故,到底谁才应当承担主要责任呢?是车主还是汽车厂商呢?还是说把主要责任推给当地的监管部门和自动驾驶技术相关法律的立法人员呢?
诸如此类的交通事故,向车主的过度追责是不公正的。对于车主,他在合法的情况下购买了得到当地法律允许的自动驾驶汽车,并且合法地行驶在道路上,汽车的主要驾驶操作都由算法完成,那么出现交通事故,车主凭什么要承担主要责任呢?就好比乘坐出租车,出租车出现交通意外,你怎么能去把主要责任推个乘客呢?更何况大部分的自动驾驶引起的交通事故都是由于算法出现故障,或者机械系统出现失灵等问题引起的,这就更不是车主的过失了。
因此我们认为,主要责任在于汽车的设计者的疏忽和交通部门失职。
从IT使用者的风险意识角度看,车主的确未能防患未然,预知潜在的风险,的确存在一定程度的责任;但是另一方面,我们不得不注意,交通部门批准无人驾驶汽车上路,某种意义上也属于“IT使用者”的范畴。交通部门在未能充分验证特斯拉汽车的安全性的前提下,就给它颁布了许可证书,这一份失职,是明显的对自动驾驶技术的风险的认识不足和防范不够。
所以由于IT道德和社会责任问题的考虑,算法等软硬件的不成熟,有关部门的监管不力,立法层面的严重滞后,自动驾驶技术在其成熟之前,没有也暂时不应该大规模推广。不过自动驾驶技术本身是没有错的,技术的革命是生产力发展的保障,在汽车的发明之初,也发生过不少相似的事故,社会关于汽车问题的舆论和社会运动也很激烈,当时的人们宁愿乘坐老旧且颠簸的马车也不愿意乘坐汽车,但现如今,马车早已经消失在历史的尘埃中了。后之视今,亦犹今之视昔。在自动驾驶技术成熟之后,它才会得到更好的推广。
参考文献:
[1] 张林.智能算法推荐的意识形态风险及其治理[J].探索,2021(01):176-188.
[2] 陈海军,邹君波,赵颖,费德馨.资讯平台智能推荐算法的伦理问题研究[J].新媒体研究,2021,7(07):32-34+63.
感想
本次作业由小组组队完成,在作业的完成过程中,各位同学都各抒己见,因此不仅有基于课本知识的分析,在课本之外,思维也是较为开阔的。这种学习方式,使我们受益匪浅。我们有幸成为人工智能时代风口上的计算机学子,人工智能以及整个计算机技术将何去何从,与我们有关。在未来,我们不仅要提高计算机专业能力,也要培养伦理学能力,具备充分的伦理素养和情怀,才能更好地服务于社会,服务于祖国和人民。