AI剥离深度伪造裸体应用飞速走红

人工智能技术在去除深度伪造视频中裸体场景方面迅速获得关注与普及

根据《时代》的报道,使用人工智能从女性照片中未经同意地删除衣物的应用程序和网站正迅速增长。

社交网络分析公司Graphika的研究人员发现,仅在9月份,2400万人次访问了所谓的“nudify”或“undressing”服务,这些服务将AI算法应用于真实的穿着衣物的女性照片,生成虚假的裸体图像。

这种惊人的增长与几个新的AI扩散模型的开源相对应,这些模型能够创建出惊人逼真的虚假裸体图像。而以前的AI改变后的图像往往模糊不清或不真实,这些新模型使业余人士能够生成具有令人信服的真实感的裸体照片,而不需要复杂的培训。

这些服务的营销通常在Reddit和Telegram等平台上公开进行,一些广告甚至建议用户将虚假的裸照发送回给受害人本人。一款”Nudify”应用程序通过赞助的YouTube内容付费,并且在谷歌搜索中排名第一,尽管这一做法违反了大多数网站的政策。然而,这些服务在很大程度上运作无拘无束。

Deepfake对于非自愿色情内容非常危险

专家警告称,DIY Deepfake裸照的泛滥代表了非自愿色情的一个危险新阶段。电子前哨基金会的Eva Galperin表示,“我们看到越来越多的普通人针对普通目标进行这样的操作”,并指出高中生之间的案件增加。

然而,许多受害者甚至从未发现此类图像的存在,而那些发现的人通常难以让执法机关调查,或者缺乏资金进行法律诉讼。

目前,联邦法律没有明确禁止Deepfake色情内容,只禁止生成虚假的儿童性虐待材料。去年11月,一名北卡罗来纳州的精神病学家因在未成年患者照片上使用AI脱衣应用程序而获刑40年,这是这类案件的首例定罪。

针对这一趋势,TikTok已经禁止与nudify应用程序相关的搜索词,而Meta也开始在其平台上屏蔽相关关键词。然而,分析师表示,需要更多的意识和行动来应对非自愿的AI色情活动。

这些应用程序未经同意地将女性的身体视为原材料,对隐私权漠视不顾,追求利润。“你可以创建出看起来真实的东西,” Santiago Lakatos说。对受害者来说,这正是危险所在。

特色图片来源:Pexels,照片作者:Markus Winkler