随着生成式 AI 图像工具的快速发展,网络上越来越多的图像真假难辨。尽管已有技术能够区分真实照片和 AI 伪造图片,但大多数在线平台尚未充分利用这一技术。随着美国总统大选临近,网络上充斥着关于候选人唐纳德·特朗普和卡玛拉·哈里斯的各种照片——从震撼的刺杀未遂场景,到毫无特色的集会人群照片,再到令人惊讶的候选人焚烧国旗或持枪的照片。这些图像中有些并非真实发生的事件,但生成式 AI 图像工具现在已经变得如此娴熟和易用,以至于我们不再能完全相信自己的眼睛了。
为了解决这一问题,一些数字媒体巨头正在寻求技术方案,他们的答案是:通过增加数据,特别是附加在照片上的元数据,来告诉用户哪些图像是真实的,哪些是伪造的,伪造是如何发生的。其中,C2PA(内容溯源与认证联盟)认证系统是最为知名的解决方案之一,已经得到了微软、Adobe、Arm、OpenAI、英特尔、Truepic 和谷歌等公司的支持。这一技术标准通过提供图像来源的关键信息,帮助用户识别图像是否被篡改。
C2PA 的指导委员会成员安迪·帕森斯表示:“像内容凭证这样的溯源技术就像数字内容的营养标签,通过为官方活动照片和其他内容提供可验证的元数据(如日期和时间),或标注是否使用了 AI,提供了一种有前景的解决方案。这种透明度可以帮助消除疑虑,特别是在突发新闻和选举周期中。”
然而,尽管验证图像所需的所有信息都可以嵌入到文件中,但目前这些信息并未被广泛应用。用户在网上看到的照片中几乎没有“已验证”的标志。问题的根源在于互操作性。尽管该系统的技术标准已经成熟,但在实际应用中仍存在巨大的差距,且需要数年时间才能让所有参与者加入进来。如果无法让各方达成一致,这一倡议可能会面临失败的风险。
C2PA 是试图解决这一混乱局面的最大组织之一,同时 Adobe 在 2019 年启动的内容真实性计划也在其中。这一技术标准通过加密的数字签名来验证数字媒体的真实性,已经建立起来。然而,对于那些在网上偶然看到可疑图像的普通用户来说,这些进展仍然难以接触到。
帕森斯指出:“我们仍然处于技术采用的早期阶段。标准已经定型,它是稳固的,并且经过了安全专家的审核。虽然实施的案例还不多,但这是标准被广泛采用的自然过程。”
图像真实性问题的根源往往从拍摄设备开始。部分相机品牌如索尼和徕卡已经基于 C2PA 的开放技术标准,在拍摄照片时嵌入了加密的数字签名,这些签名提供了诸如相机设置、拍摄日期和位置等信息。然而,目前只有少数几款相机支持这一功能,既包括如徕卡 M11-P 这样的新型号,也包括通过固件更新支持的现有型号如索尼的 Alpha 1、Alpha 7S III 和 Alpha 7 IV。其他品牌如尼康和佳能虽然也承诺采用 C2PA 标准,但多数尚未采取实际行动。对于普通用户来说,最常用的相机是智能手机,而智能手机在这方面也缺乏支持。苹果和谷歌都没有回应是否会在 iPhone 或 Android 设备中实施 C2PA 支持或类似标准的询问。
即便相机本身没有记录这些重要数据,编辑软件仍可以在后期处理中应用这些信息。像 Adobe 的 Photoshop 和 Lightroom 这样的图像编辑软件,能够以 C2PA 支持的内容凭证形式自动嵌入这些元数据,内容凭证可以记录图像是如何以及何时被修改的,这包括任何生成式 AI 工具的使用,从而帮助识别被错误篡改的图像。
然而,问题在于,目前许多图像编辑应用程序,如 Affinity Photo 和 GIMP,并不支持能够解决真实性问题的统一、可互操作的元数据解决方案。部分软件社区成员表达了希望这些软件支持此功能的意愿,这可能会使这一问题得到更多关注。流行的专业摄影软件 Capture One 的开发者表示,他们“致力于支持受 AI 影响的摄影师”,并“正在研究包括 C2PA 在内的可追溯性功能”。
即便相机支持真实性数据,这些数据也不总是传递给用户。例如,用 C2PA 兼容的索尼相机拍摄了特朗普在刺杀未遂事件后握拳的那张标志性照片,以及一张似乎捕捉到飞行中的子弹的照片。然而,这些元数据信息并未广泛向公众公开,因为这些图像传播的平台,如 X(前推特)和 Reddit,在上传和发布图像时不显示这些信息。即便是支持这一标准的媒体网站,在使用这些数据验证照片后也没有明显标注验证凭证。
除了让平台加入之外,如何将这些信息以最佳方式呈现给用户也是一大障碍。Facebook 和 Instagram 是检查内容是否包含 C2PA 标准标记的两个最大平台,但它们只标记使用生成式 AI 工具篡改的图像,并未为“真实”图像提供验证信息。
这种标签不清晰时也可能引发问题。Meta 的“AI 制作”标签在过于广泛应用时,引发了摄影师的不满,因为它们似乎甚至覆盖了微小的修饰。这些标签随后被更新,以弱化对 AI 的突出强调。Meta 表示,它认为“内容凭证的广泛采用”对于建立信任至关重要。
C2PA 的另一成员、真实性基础设施提供商 Truepic 表示,这些数字标记中存在足够的信息,可以提供比目前平台更多的细节。Truepic 的首席沟通官穆尼尔·易卜拉欣表示:“架构已经在那里了,但我们需要研究一种最佳方式来展示这些视觉指标,以便互联网用户能够实际看到并使用它们做出更好的决定,而不仅仅是简单地说某个图像要么完全生成式 AI,要么完全是真实的。”
这一计划的关键之一是让在线平台采用这一标准。X(前推特)因传播虚假信息而面临监管审查,但它并未加入 C2PA 倡议,也没有提供其他替代方案。然而,X 的拥有者埃隆·马斯克似乎愿意支持这一标准。在 2023 年 AI 安全峰会上,帕森斯向马斯克提出这一建议时,马斯克表示:“这听起来是个好主意,我们应该做它。某种认证方式是好的。”
即便技术方面取得突破,否认主义仍然是一个强大且可能难以克服的障碍。即使提供了记录和基于证据的信息,如果人们选择忽视这些信息,也无法阻止虚假信息的传播。正如特朗普支持者毫无根据地指责哈里斯伪造集会人群的例子一样,尽管有广泛证据表明这些指控是错误的,但一些人只相信他们想要相信的内容。
尽管如此,使用加密标签系统可能是目前大规模识别真实、篡改和生成式 AI 内容的最佳方法。其他模式分析方法(如在线 AI 检测服务)往往不够可靠。易卜拉欣表示:“检测技术充其量只是概率性的——我们不认为你会得到一个可以在任何图像、视频或数字内容上实时且大规模提供 99.99% 准确率的检测机制。虽然水印技术可能是强大且有效的,但在我们看来,它不具备互操作性。”
尽管 C2PA 标准提供了更健全的选择,但仍然存在局限性。例如,图像元数据可以通过截屏轻易被去除,目前对此没有解决方案。其有效性还取决于有多少平台和产品支持这一标准。
易卜拉欣总结道:“没有任何系统是万能的。它可以减轻风险,但坏人总会存在,并使用生成工具来试图欺骗他人。”