大型人工智能无法通过水印阻止选举深度伪造

Large-scale AI cannot stop deep fakes in elections with watermarks.

五月份,一张在五角大楼附近爆炸的假图片在Twitter上疯传。紧接着,又出现了一些似乎显示在白宫附近发生爆炸的图像。深研误导和虚假信息的专家迅速指出,这些图像似乎是由人工智能生成的,但股市已开始下跌。

这只是虚假内容如何产生令人担忧的真实世界影响的最新例子。生成式人工智能的繁荣意味着现在能够自由创建虚假图像和视频,并大量产生令人信服的文本工具。误信息专家表示,我们正在进入一个越来越难以区分真实与虚假的新时代。

上周,包括OpenAI、谷歌、微软和亚马逊在内的主要人工智能公司承诺美国政府,他们将努力减轻技术可能造成的伤害。但这不太可能阻止即将到来的人工智能生成内容的浪潮和可能带来的混乱。

白宫表示,这些公司的“自愿承诺”包括“开发强大的技术机制,确保用户知道内容是由人工智能生成的,比如水印系统”,作为防止人工智能被用于“欺诈和欺骗”的努力的一部分。

但WIRED采访的专家表示,这些承诺只是一半的措施。“即使有了水印,也不会有一个真正简单的是或否来判断某物是否由人工智能生成,”非营利组织Witness的项目主管Sam Gregory说道,该组织帮助人们利用技术促进人权。

水印通常由图片机构和新闻机构使用,以防止未经许可和付款使用图像。

但是,当涉及到人工智能可以生成的各种内容以及已经存在的许多模型时,情况变得更加复杂。迄今为止,尚没有关于水印的标准,这意味着每个公司都在使用不同的方法。例如,Dall-E使用可见水印(快速的谷歌搜索将找到许多关于如何移除水印的教程),而其他服务可能默认使用元数据或对用户不可见的像素级水印。虽然有些方法可能很难撤销,但其他方法(如可视水印)在调整图像大小时有时可能变得无效。

“你可以通过某种方式来破坏水印,”Gregory说。

白宫的声明明确提到使用水印来处理由人工智能生成的音频和视觉内容,但没有提到文本。

有一些方法可以给OpenAI的ChatGPT等工具生成的文本加上水印,通过操纵单词的分布方式,使某个单词或一组单词出现频率更高。这些方法对机器来说是可检测的,但不一定对人类用户可见。

这意味着水印需要由机器解释,然后向观众或读者标记。这在混合媒体内容中变得更加复杂,比如在一个TikTok视频中可能出现的音频、图像、视频和文本元素。例如,有人可能在一个被篡改的图像或视频上放置真实的音频。在这种情况下,平台需要找出如何标记片段中的一个组件(但不是全部)是由人工智能生成的。

仅仅将内容标记为人工智能生成的并不能帮助用户确定某个内容是否具有恶意、误导性或娱乐目的。

“显然,如果你在制作TikTok视频,而且它们是为了好玩和娱乐的,操纵媒体不是根本上的问题,”加州大学伯克利分校信息学院的教授Hany Farid说道,他曾与软件公司Adobe合作进行内容真实性项目。“关键在于上下文,这将继续非常困难,但平台在过去的20年里一直在努力解决这些问题。”

人工智能在公众意识中的日益重要地位也为另一种形式的媒体操纵提供了可能。就像用户可能会认为人工智能生成的内容是真实的一样,合成内容的存在本身就会对任何视频、图像或文本的真实性产生怀疑,使恶意行为者声称即使是真实内容也是假的,这就是所谓的“说谎者红利”。Gregory表示,Witness最近看到的大多数案例不是利用深度伪造技术传播谎言,而是人们试图将真实媒体冒充为人工智能生成的内容。

4月,印度南部泰米尔纳德邦的一名议员声称,一段泄露的音频录音中他指责自己的政党窃取了30多亿美元是“机器生成的”(事实并非如此)。2021年,在缅甸发生军事政变后的几周里,一段视频中一个妇女在后面有军队车队通过时做了一个舞蹈训练,这段视频迅速走红。许多网友声称这段视频是假的(事实并非如此)。

目前,几乎没有什么能够阻止恶意行为者在真实内容上添加水印以使其看起来虚假。法里德表示,防止篡改或损坏水印的最佳方法之一是通过使用密码签名。“如果你是OpenAI,你应该拥有一个密码密钥。而水印将包含只有拥有该密钥的人才能知道的信息,”他说。其他水印可以在像素级别甚至是AI学习的训练数据中存在。法里德指出,他所提供咨询的Content, Provenance, and Education联盟可以作为AI公司采用和遵循的标准。

“我们正迅速进入一个越来越难以相信我们在网上所读、所看、所听到的任何事情的时代,”法里德说。“这意味着我们不仅会被虚假的事物欺骗,我们也不会相信真实的事物。如果特朗普的《通往好莱坞的通行证》录音带今天才发布,他将有合理的否认权,”法里德说。