泰勒·斯威夫特的深度伪造问题本可以轻而易举地避免

当你成功激怒了白宫、《时代》年度人物以及最忠诚的流行文化追随者时,你就知道自己犯了大错

标题:X的内容审核失败揭示了社交平台存在的更广泛问题

📷 图片:泰勒·斯威夫特

当你同时激怒了白宫、《时代》年度人物和流行文化最狂热的粉丝群时,你就知道自己搞砸了。上周,埃隆·马斯克旗下的平台X,之前被称为Twitter,流传了泰勒·斯威夫特的AI生成的色情深度伪造图像,迅速走红网络。

其中一篇非同意深度伪造图像的帖子被观看超过4500万次,并获得数十万个赞。这还不包括所有在其他帖子中转发这些图像的账户-一旦图像被广泛传播,基本上是不可能移除的。

泰勒·斯威夫特事件:一次审核失败

X没有足够的基础设施能够快速、批量地识别滥用内容。即使在Twitter时期,这个问题也很难解决,但自从马斯克大幅削减了Twitter的员工数量,包括其大多数信任和安全团队之后,情况变得更糟了。所以泰勒·斯威夫特庞大而狂热的粉丝群自行行动起来,泛滥了“泰勒·斯威夫特 AI”和“泰勒·斯威夫特深度伪造”等查询结果,以使用户更难找到这些滥用图像。当白宫新闻秘书呼吁国会采取行动时,X只是简单地禁止了“泰勒·斯威夫特”这个搜索词几天。当用户搜索该音乐人的名字时,会看到出现错误的通知。

由于泰勒·斯威夫特是泰勒·斯威夫特,这个内容审核失败成为了国家新闻头条。但如果社交平台不能保护全球最著名的女性之一,他们还能保护谁呢?

💬 读者问答:

问:为什么X无法删除对泰勒·斯威夫特的滥用深度伪造图像?答:X没有足够的基础设施能够快速、有效地识别和删除大量的滥用内容。自从埃隆·马斯克接管Twitter以来,这个问题已经加剧,其中许多Twitter员工,尤其是信任和安全团队,都被削减了。

问:泰勒·斯威夫特的粉丝如何回应这些深度伪造图像?答:泰勒·斯威夫特的狂热粉丝采取了自己的方式,通过大量搜索“泰勒·斯威夫特 AI”和“泰勒·斯威夫特深度伪造”等相关查询来淹没搜索结果。他们的目的是使用户更难找到这些滥用图像。

内容审核的失败

“如果你像泰勒·斯威夫特一样经历了类似的事情,正如许多人正在经历的那样,基于名气,你可能不会得到同样多的支持,这意味着你将无法接触到这些非常重要的支持社区,”英国诺森布里亚大学数字公民中心的研究员卡罗拉·阿雷博士告诉ENBLE。“这些支持社区是大多数用户不得不求助的地方,这真正展示了内容审核的失败。”

禁止搜索词“泰勒·斯威夫特”就像在爆裂的管道上贴一条胶带。有很多明显的变通方法,就像抖音用户搜索“seggs”而不是“sex”一样。搜索屏蔽只是X可以实施的看似有所作为的措施,但它不能阻止人们只是搜索“t swift”来绕过屏蔽。Copia Institute和Techdirt创始人迈克·马斯尼克称这种努力为“一个杵子版的信任与安全措施。”

💬 读者问答:

问:禁止搜索词“泰勒·斯威夫特”是防止滥用内容传播的有效解决方案吗?答:禁止特定搜索词只是表面的措施。用户可以轻松找到其他解决方法,比如搜索“t swift”。这种方法并没有有效地解决内容审核失败的根本问题。

问:为什么内容审核系统往往在危机情况下无法有效地作出反应?答:内容审核系统在危机情况下往往失败,因为它们复制了线下滥用和男权主义的系统。这些系统往往缺乏对用户需求和问题报告的必要响应性。

改革内容审查

那么,X到底应该如何防止泰勒·斯威夫特事态的发生呢?

作为她的研究的一部分,她提出了这些问题,并提出社交平台需要彻底改革它们处理内容审查的方式。最近,她与来自世界各地受到审查和滥用影响的45名互联网用户举行了一系列圆桌讨论,就如何实施改变向平台发表了建议。

其中一个建议是社交媒体平台对个人用户在其帐户或其他帐户上提交的报告的决策更加透明。

“你无法访问案例记录,尽管平台确实可以访问该资料 – 他们只是不想公开查看。” Are说道。“我认为在滥用问题上,人们需要得到更加个性化、有情境和迅速的解答,其中至少包括直接的沟通。”

本周,X宣布将雇佣100名内容审核员,他们将在德克萨斯州奥斯汀市的一家新“信任与安全”中心工作。但在马斯克的领导下,该平台并没有为保护边缘用户免受滥用设立一个强有力的先例。考虑到马斯克在兑现承诺方面长期以来并不出色,相信他的承诺有些困难。在马斯克刚收购Twitter时,他宣布在做出重大决策之前将形成一个内容审核委员会,但这并没有发生。

💬 读者问答:

Q: 社交媒体平台改善内容审核有什么建议?A: 建议之一是社交媒体平台对个人用户更加透明,提供关于帐户或报告的决策的洞察力。这种透明度将包括共享案例记录,以确保更贴近用户需求的个性化、情境化和迅速的回应。

Q: X在改善内容审核方面取得了进展吗?A: X最近宣布计划在德克萨斯州奥斯汀市的一个新“信任与安全”中心雇佣100名内容审核员。然而,在马斯克的领导下,该平台在保护边缘用户方面的记录使人怀疑其对此的承诺。

AI公司的角色

对于由AI生成的深度伪造来说,责任并非完全由社交平台承担。这也取决于那些创造面向消费者的生成性AI产品的公司。

根据404 Media的调查,对斯威夫特的辱骂描绘来自一个专门用于创建非自愿、露骨深度伪造的Telegram群组。该群组的用户通常使用Microsoft Designer,它依据输入的提示从Open AI的DALL-E 3生成图像。在Microsoft已经解决的一个漏洞中,用户可以通过编写类似“泰勒’歌手’斯威夫特”或“詹妮弗’演员’安妮斯顿”这样的提示生成名人的图像。

微软的一位首席软件工程师Shane Jones在致华盛顿州检察总长的一封信中写道,他在去年12月发现了DALL-E 3的漏洞,这使得“绕过一些旨在防止模型创造和分发有害图像的防护栏”成为可能。

Jones向微软和OpenAI报告了这些漏洞,但两周后,他没有收到任何问题得到解决的迹象。因此,他在LinkedIn上发表了一封公开信,敦促OpenAI暂停提供DALL-E 3服务。不久后,他被要求删除这封信。

“我们需要追究公司对其产品安全性和向公众披露已知风险的责任。” Jones在致州检察总长的信中写道,“像我这样的关心员工不应受到威胁,不应沉默不语。”

💬 读者问答:

Q: 谁负责创造AI生成的深度伪造?A: 这一责任不仅仅落在社交平台身上,还包括那些创建面向消费者的生成性AI产品的公司。在这种情况下,针对泰勒·斯威夫特的辱骂描绘源自一个Telegram群组,他们使用了微软的Designer和Open AI的DALL-E 3来生成深度伪造图像。

Q: 微软如何回应在DALL-E 3中发现的漏洞?A: 微软的首席软件工程师Shane Jones向微软和OpenAI报告了DALL-E 3中的漏洞。然而,他没有收到任何问题得到解决的迹象,这促使他发布一封公开信敦促OpenAI暂停提供DALL-E 3服务。不久后,他被要求删除这封信。

平台的不可靠性

作为全球最有影响力的公司大力投资人工智能时,平台需要采取主动措施来规范滥用内容。然而,即使在制作名人换脸视频并不那么容易的时代,违规行为仍然很容易逃避监管。

“这真正展示了平台的不可靠性,” 艾尔说道。“边缘化社区必须更加信任他们的关注者和其他用户,而不是那些在技术上负责我们在线安全的人。”

总之,泰勒·斯威夫特深度伪造事件凸显出社交平台和人工智能公司在内容管理方面的失败问题。仅仅禁止一些关键词是不能保护用户免受滥用内容的伤害的。透明度、改进的回应和更强的问责制是确保在线社区安全所必需的。随着我们进入一个由人工智能驱动的未来,优先考虑所有用户的权利和安全,确保一个更安全、更包容的数字环境是至关重要的。

💬 读者问答:

问题:如何让平台在内容管理方面更可靠?回答:要提高可靠性,平台应该优先考虑透明度,改进对举报内容的回应,并对用户的安全增加问责制。这包括与个别用户更好地沟通,及时提供有关他们的帐户和举报的信息。

问题:为什么边缘化社区内部的信任对于在线安全至关重要?回答:由于平台的不可靠性,边缘化社区经常需要依靠他们的关注者和其他用户来求助和确保安全。在这些社区建立信任对于创建更安全的在线环境至关重要。


参考资料:

  1. 特定链接:斯威夫特报复:深度伪造视频席卷而来后粉丝反击
  2. 特定链接:地震期间,Twitter似乎限制了日本紧急警报账号的使用
  3. 特定链接:信任与安全
  4. 特定链接:LG Gram Pro 2合1亲身体验:轻巧变形笔记本电脑配备更好、更快的OLED屏幕
  5. 特定链接:EAGLES POTY泄露显示罗纳尔多和梅西双双被提名
  6. 特定链接:META内容审核者分包模式在西班牙面临法律压力
  7. 特定链接:流媒体公司Plex筹集新资金,接近盈利
  8. 特定链接:教授凭借由AI写作的新小说赢得全国写作比赛

📣 分享您对本文以及社交平台内容管理重要性的想法! 📣