“建造一个人工智能的虚假信息传播机器只需花费400美元”

Building an AI fake news propagation machine only costs $400.

五月份,俄罗斯国有媒体机构Sputnik International发布了一系列推文,抨击美国的外交政策并攻击拜登政府。每一条推文都引发了一个简短但精心构思的回击,来自一个名为CounterCloud的账号,有时还包含了相关新闻或观点文章的链接。它对俄罗斯大使馆和批评美国的中国新闻机构的推文也产生了类似的回应。

俄罗斯对美国的批评并不罕见,但CounterCloud通过人工智能算法完全制作的推文、文章,甚至是记者和新闻网站,却是非常特别的。据该项目背后的人士Nea Paw称,这旨在凸显大规模生产的人工智能虚假信息的危险。Paw没有公开发布CounterCloud的推文和文章,但提供给了ENBLE,并制作了一个概述该项目的视频。

Paw自称是一名网络安全专业人士,喜欢匿名,因为有些人可能认为这个项目是不负责任的。Paw表示,CounterCloud在抗击俄罗斯信息传播方面的运动是使用了OpenAI的文本生成技术,类似于ChatGPT背后的技术,以及其他易于使用的人工智能工具生成照片和插图,总成本约为400美元。

Paw表示,这个项目表明广泛可得的生成式人工智能工具使得创建推动国家支持的宣传的复杂信息运动变得更加容易。

“我认为没有什么银弹可以解决这个问题,就像没有什么银弹可以解决网络钓鱼攻击、垃圾邮件或社交工程一样,”Paw在一封电子邮件中说道。有可能采取一些缓解措施,例如教育用户警惕操纵性的人工智能生成内容,使生成式人工智能系统试图阻止滥用,或者为浏览器配备人工智能检测工具。“但我认为这些事情都不是特别优雅、便宜或有效的,”Paw说。

近年来,虚假信息研究人员警告称,人工智能语言模型可能被用于制作高度个性化的宣传运动,并为在与用户进行复杂互动的社交媒体账号提供动力。

斯坦福大学互联网观察组织的技术研究经理Renee DiResta表示,CounterCloud项目生成的文章和记者简介相当令人信服。

“除了政府行为者,社交媒体管理机构和提供影响力运营服务的雇佣兵无疑会使用这些工具并将其纳入工作流程中,”DiResta表示。她补充说,将虚假内容广泛传播和分享是一项具有挑战性的任务,但可以通过支付有影响力的用户来实现。

一些以人工智能为动力的在线虚假信息运动的证据已经浮出水面。学术研究人员最近发现了一个粗糙的、推动加密货币的机器人网络,显然是由ChatGPT提供动力。该团队表示,这一发现表明聊天机器人背后的人工智能很可能已经被用于更复杂的信息运动。

合法的政治运动在2024年美国总统选举之前也开始使用人工智能。今年四月,共和党全国委员会制作了一段攻击乔·拜登的视频,其中包含虚假的、由人工智能生成的图像。今年六月,与Ron Desantis相关的一个社交媒体账号在一段试图诋毁唐纳德·特朗普的视频中使用了人工智能生成的图像。美国联邦选举委员会表示可能会限制在政治广告中使用深度伪造技术。

研究了人工智能语言模型虚假信息潜力的研究员Micah Musser预计,主流的政治竞选活动将尝试使用语言模型生成宣传内容、筹款邮件或攻击性广告。“现在是一个非常不稳定的时期,还不清楚规范是什么,”他说。

Musser表示,很多由人工智能生成的文本仍然相当普遍和容易辨认。但他说,让人类优化推动虚假信息的人工智能生成内容可能会非常有效,几乎不可能通过自动过滤器停止。

OpenAI的首席执行官Sam Altman在上个月的一条推文中表示,他担心公司的人工智能技术可能被用于大规模定制化的自动虚假信息。

当OpenAI首次通过API提供其文本生成技术时,禁止了任何政治使用。然而,今年三月,该公司更新了其政策,禁止用于大规模生成面向特定人群的信息。《华盛顿邮报》最近的一篇文章暗示了GPT本身并不会阻止生成这样的内容。

OpenAI的产品政策主管Kim Malfacini表示,该公司正在探索其文本生成技术在政治方面的应用。她说,人们还没有习惯于假设他们所看到的内容可能是由人工智能生成的。“人工智能工具在任何行业中的使用可能只会增长,社会将会适应这一点,”Malfacini说。“但目前我认为人们仍处于更新的过程中。”

由于现在有大量类似的人工智能工具广泛可用,包括可以在很少限制下构建的开源模型,选民应尽早了解人工智能在政治中的使用。