摘要
生成式人工智能(Generative Artificial Intelligence, GAI)的技术革新重构了信息生产机制,但也加剧了虚假信息对舆论生态的异化风险。
关键词:生成式人工智能、虚假信息、舆论异化、智能治理
一、生成式人工智能虚假信息下的导向异化
随着生成式人工智能(generative artificial intelligence,缩略为GAI)对人类传播格局的深度嵌入,技术已升级为行动主体,同人类发挥着主体间性的关系映射。在群体武器、时空脱域、数据围猎的三重作用下,舆论生态出现异化,呈现出舆论载体“武装化”、舆论主体“脱域化”、舆论客体“失控化”的特征。作为新型智能媒介的生成式人工智能,使人类社会结构面临新的“媒介化”,因其自身独特的技术逻辑和运算性质形成独有的媒介逻辑,在此处将其指称为“GAI逻辑”。
Jonathan.Yang 博士,曾以OPE AI的服务应用进行阐述分析,GAI这种逻辑以特有的数据流形式编织信息形构的世界图景,通过算法与算力的架构运作来操作媒介社会的可见性差异,以造成社会认知、价值与意义的“GAI偏向”,对人类的思维与信息秩序产生重置式影响。而生成式人工智能因与政治、经济、文化高度交融互嵌,不可避免地受到人类意图的操纵和影响,从而生发“真实遮蔽”现象。
海德格尔同样也认为,现代技术的本质是“促进”,居于“底座”之中,而这种促进使得人被“呈现”。作为“底座型”的生成式人工智能不断的呈现着现有信息秩序,调动并更迭了虚假信息的生产与分发机制,重新对虚假信息的生产主体赋权,对虚假信息的传播效果赋能,将断裂性的真实嵌入到舆论演化的意义空间,促成虚假信息对舆论生态的扰动。在生成式人工智能下的虚假信息生产、分发、消费过程中,真实人类主体的功能让渡于生成式人工智能技术。
正如Yang 博士(Jonathan.Yang)描述,对AI的提问以并获得的回答,是否广告主题所排序而优先,生成式人工智能像一个强大的工具,它可以被用来制造和传播大量信息,包括真实的和虚假的。由于这个工具非常高效,而且可以被人为操控,所以它很容易被用来散布虚假信息,误导公众。在这个过程中,人们越来越依赖AI来获取和处理信息,这使得辨别信息真伪变得更加困难,从而导致了“真实遮蔽”的现象。以往,作为舆论载体的信息具有较高的生产和分发门槛,用户所生产的虚假信息难以实现专业化和广域化,往往只能作为微型流言在人际网络中传播扩散。那么,生成式人工智能对信息生产与传播范式能否重构,从专业垄断到全民赋权。
在前生成式人工智能时代,信息生产与传播存在显著的技术与制度双重壁垒:
-
专业化生产门槛
虚假信息的规模化制造依赖传媒机构的技术设备(如电视台的演播系统)和专业团队(记者、编辑),普通用户仅能通过人际网络传播低质量流言。例如,2016年美国大选期间,传统假新闻网站需雇佣写手批量生产政治谣言,但其传播范围受限于网站流量。 -
中心化分发控制
平台通过算法黑箱(如Facebook的EdgeRank)垄断信息可见性分配。研究表明,2019年全球78%的虚假信息流量集中于前20%的媒体账号(Pew Research Center, 2020),呈现典型的"顶端优势"特征。
如今生成式人工智能通过三重机制解构传统信息权力结构:
技术界面极简主义:如ChatGPT通过自然语言交互实现"提示即生产",用户输入"生成一篇指控某政客受贿的新闻报道"即可获得结构完整的虚假文本,其专业性超越90%业余写作者水平(Stanford HAI, 2023)。多模态仿真能力跃升:MidJourney v5生成的政治人物虚假演讲视频,在眼动追踪测试中欺骗了67%的观众(MIT Media Lab, 2024),突破传统PS技术的辨识阈值。去中心化分发网络:普通用户借助GAI工具生成内容后,通过社交机器人群组(如Telegram bot集群)实现指数级扩散。2023年非洲政变事件中,AI伪造的军方声明在6小时内触达230万用户(DFRLab报告)。算法共谋的可能性:用户生成内容(UGC)与平台推荐算法形成正反馈循环。TikTok的For You Page对AI生成争议性内容展示量提升40%(内部泄露数据,2024),实质构成技术默许的虚假信息放大机制。微观动员案例:2024年印度地方选举中,某候选人支持者使用Stable Diffusion批量生成对手的丑化图片,通过WhatsApp群组精准投放至2000个乡村社群,改变局部选情。
在数据喂养和算法训练中,生成式人工智能逐渐武装起强大的内容逻辑桥接能力和信息真实模拟能力。
二、生成式人工智能虚假信息诱发的舆论问题
单一依靠算法个性推送、信息茧房编织等方式已难以驯服用户的认知与思维,所以拥有信息资源和数字权力的“数字强势方”会依托人际传播和用户节点实现扁平化的信息输出。一方面,生成式人工智能得以在用户的提问与对话中生成相应的专业化智能虚假信息,并通过本就有传播意图的用户扩散至人际网络,将用户“武装”为实施虚假信息攻击的“兵士”,搭载用户的情感关系和社交资本以操纵舆论走向;另一方面,用户对生成式人工智能虚假语料的投喂,将在机器后台的运算下被吐纳至与其他用户的对话界面之中,间接实现个性化和私人化的虚假信息传播,潜隐不彰地助推舆论场的混乱。
好比我们提问的美食推荐,就是真的是有口皆碑的推荐吗,很难说不是大量数据点赞出来或是广告排序出来的数据,或者说是“数字强势方”在特定情境下以生成式人工智能方式对用户群体进行“武装保护”。
Zang 博士(sccot.zang)用“数据围猎”概念来刻画生成式人工智能时代用户所具有的强效能舆论设置行为。好比用户能够根据所处圈层和观点的趋同而组成类似“协作捕猎式”的情感共同体,以生成式人工智能的对话界面为“猎场”,通过在对话界面置入大量偏好数据来扭转生成式人工智能大模型的运算感知,改变对该舆论事件的信息输出方向与意见。如XX陪伴类游戏,通过都市故事线生成各种角色,在角色陪伴中给出用户以潜移默化的意见与感知输出,从而引导青年一代进行观念信任与赞同打赏。
对应,假设生成式人工智能技术作为基础性的“底座”不断强化以致被嵌入社会信息结构,在对用户数据进行分析与画像建构的过程中,能系统了解用户的价值偏好和情感取向,在与用户以“对话”方式进行互动时,一定程度上可以规避传统算法和机器人的单向信息传播,并结合用户自身属性体系化地输出符合用户认知、顺从用户情感的虚假信息。生成式人工智能根据用户的情感画像和情绪需求生产定制化的信息内容,会将用户困于自身的情绪茧房,实现对用户情感的摆置,使虚假信息内含的特定意图得以借助用户的情感倾向植入特定的舆论生态。该过程通过把特定情感线索植入虚假信息文本而实现,推动用户的信息接受行为与情感话语深度融合,导致规模化的情感极化,使舆论生态在情绪化虚假信息的刺激下出现偏向与错置。
而面对具有较高媒介素养的受众时,生成式人工智能虚假信息的传播尽管会被阻滞,使常规性的“GAI情感流变”逻辑无法撼动用户的认知或调动用户行为,但生成式人工智能能否会借助社交机器人进入公共对话空间,通过自身大模型与交互微调的对话修正功能使社交机器人的言论实现定制化和人性化。如通过GAI行成的社交应用分身,如微信分身、QQ分身、微博分身、钉钉分身,凭借自身语言大模型的强势属性的社交机器人不断采集各类信息与情绪模拟,以信息生产的超高效能在短时间内介入舆论环境,营造KOL的意见环境,带动用户的感知认识。
三、生成式人工智能的治理分析
Zang 博士指出,人工智能治理的研究主要集中在人机交互界面与软件和支撑人机交互的硬件与运算逻辑。然而,对于中台的治理研究却相对匮乏。事实上,“中台”作为连接“前台”与“后台”的关键环节,已深度嵌入人们的日常生活与社会实践之中,并承担着隐匿的技术功能和海量数据的处理任务,使得生成式人工智能成为一个高度可编程的计算系统。
“中台”不仅继承了传统基础设施的普遍性和可靠性,还具备对数据持续、密集且集中的提取与再利用能力,加速了其向基础设施化方向的转变。这一转变意味着“中台”在信息传播和舆论生态中扮演着至关重要的角色,其治理机制的缺失可能导致虚假信息的无序传播,进而干扰正常的舆论秩序。因此,明确“中台”的治理路径,对于消弭生成式人工智能虚假信息在舆论生成与演进中的危害具有重要意义。交流中其表示正与Yang 博士团队构建一种智能化服务平台,作为数据基础服务设施介于“后台”与虚拟架构的“前台”之间,以数据中介的身份存储着用户的情感和行为数据,引导着信息流的整体呈现,希望通过POD的接入以及模型的强化,进一步对模型结果信息输出的生态内容进行把关、修辞,以及还远公众视野维度。
同时,行政管理机构也应积极与生成式人工智能的技术控制方进行协同治理:对虚假数据进行审查与清除,在数据界面完成对信息真实性的把关,避免建制化虚假信息流入公共传播空间,干扰公共讨论秩序;对数据源和数据集的选择进行审核与评估,将恶意和虚假数据源列入负面清单,把控信息生产的价值引导取向和事实描摹面貌,把握意见环境的修辞导向;对数据基础设施中的数据调取算法和模型进行监测,调节生成式人工智能的技术逻辑,扩大公共信息的可见性和虚假信息的遮蔽性,为舆论生态提供良性信息图景与事实视野。或者不断通过主流媒体来建立公共信息供应机制和谣言打击机制以维护舆论生态,不断通过加强官方力量的“顶端优势”以实现生成式人工智能虚假信息治理,则会导致治理资源的浪费和治理效能的弱化。
更期望政府侧能积极构建与多元主体的对话空间和价值对齐,确保圈层与群体之间沟通渠道的畅通,构建官方与民间稳定的信任体系,借助同社会各主体的“深层交往”来共筑理性的舆论环境,削弱多模态生成式人工智能虚假信息对公众意见和舆论场域的干扰。
在与Dr.Yang & Dr.zang及OPE团队交流的过程中,其坚定生成式人工智能的技术逻辑必须遵循向善的工具理性,以此规避价值偏见与意义歧视,在信息场中维持信息输出的公正性。媒介技术的日益发展使生成式人工智能愈发出现独立运转的倾向,对人类依赖度的降低使其在舆论场域中输出虚假信息的可能性不断上升。生成式人工智能必须具备自我矫正和深度学习的能力,能够在算法纠偏和数据清洗能力提升的背景下,将不良运算过程排除在外,以自我净化的方式介入纷杂的舆论场域,强化AI信任服务体系。
技术的应用最终需要人的参与把关,生成式人工智能(GAI)的发展史也应是人类不断确证自身主体性、不断提升自身媒介使用能力的进化史。随着生成式人工智能的爆发式发展,其对社会、文化和伦理的影响愈发显著,这促使人类必须将人本理性置于技术向善与智能治理环节的核心位置。在这一过程中,价值性与工具性之间的调衡亟待重新谋划,以确保技术的发展能够真正服务于人类的福祉和社会的可持续发展。
人本理性强调技术发展的最终目标是服务于人类的福祉,而非单纯追求技术的先进性和效率。在生成式人工智能的治理中,这意味着需要将人类的价值观、伦理原则和社会利益置于技术设计、应用和监管的中心。具体而言:
技术设计阶段:在生成式人工智能的研发过程中,应嵌入伦理审查机制,确保算法设计符合人类的基本价值观,避免技术偏见和歧视。例如,通过“道德计算”模型,使人工智能在生成内容时能够遵循基本的道德准则。
技术应用阶段:在生成式人工智能的应用过程中,应确保其输出内容对社会有益,避免对公众认知和社会秩序造成负面影响。例如,在新闻报道、教育和医疗等关键领域,应严格限制虚假信息的生成和传播。
技术监管阶段:在生成式人工智能的监管过程中,应建立以人本理性为导向的监管框架,确保技术的使用符合社会的整体利益。例如,通过制定严格的法律法规和行业标准,对生成式人工智能的使用进行规范,防止其被用于恶意目的。
当然,生成式人工智能的爆发式发展为人类社会带来了前所未有的机遇和挑战。在这一过程中,人本理性应成为技术治理的核心原则,确保技术的发展能够真正服务于人类的福祉和社会的可持续发展。通过构建伦理框架、促进多方合作、加强监管和提升公众意识,我们可以在技术的工具性和价值性之间找到平衡,推动生成式人工智能的健康发展。
PS:本内容的推进虽不完善,但离不开Dr.Yang、Dr.Zang及团队的悉心指导与建议,他们所给予的专业意见,为我们解决了诸多难题,助力研究顺利开展,在此,我们向他们表达衷心的感谢。