“黑客攻击人工智能?以下是Google红队列出的四种常见AI攻击方式”

Google红队列出四种常见AI攻击方式

每当一项新技术变得流行,总会有人试图攻击它。人工智能,特别是生成式人工智能,也不例外。为了应对这一挑战,谷歌大约一年半前创建了一个“红队”,以探索黑客如何专门攻击人工智能系统。

“对于针对机器学习系统的现实世界对手,很难获得大量的威胁情报,”谷歌红队负责人丹尼尔·法比安在接受《The Register》采访时表示。他的团队已经指出了当今人工智能系统中最大的漏洞。

此外:研究人员如何破解ChatGPT及其对未来人工智能发展的意义

谷歌红队负责人解释说,对机器学习(ML)系统的最大威胁之一是对抗性攻击、数据污染、提示注入和后门攻击。这些ML系统包括构建在大型语言模型上的系统,如ChatGPT、Google Bard和必应AI。

这些攻击通常被称为“战术、技术和程序”(TTP)。法比安告诉《The Register》:“我们希望有人能像对手一样思考。在机器学习领域,我们更多地是在预测现实世界的对手接下来会走向何方。”

此外:现在,AI可以通过监听键盘点击来破解您的密码

谷歌的AI红队最近发布了一份报告,概述了攻击者对AI系统使用的最常见的TTP。

对AI系统的对抗性攻击

对抗性攻击包括编写特定设计的输入,以误导ML模型。这将导致不正确的输出或在其他情况下不会出现的输出,包括模型可以专门训练避免的结果。

此外:ChatGPT对超过一半的软件工程问题回答错误

谷歌的AI红队报告指出:“攻击者成功生成对抗性示例的影响可能从微不足道到关键,完全取决于AI分类器的用例。”

数据污染AI

攻击者可能对ML系统发起的另一种常见方式是通过数据污染来攻击,即操纵模型的训练数据以破坏其学习过程,法比安解释道。

法比安告诉《The Register》:“数据污染变得越来越有趣。”“任何人都可以在互联网上发布东西,包括攻击者,他们可以发布他们的毒数据。因此,作为防御者,我们需要找到识别哪些数据可能被以某种方式污染的方法。”

此外:Zoom卷入了一个AI隐私问题之中

这些数据污染攻击包括有意将不正确、误导或操纵的数据插入模型的训练数据集,以扭曲其行为和输出。例如,在人脸识别数据集中向图像添加不正确的标签,以便操纵系统,使其故意错误地识别人脸。

防止AI系统数据污染的一种方法是确保数据供应链的安全,根据谷歌的AI红队报告。

提示注入攻击

对AI系统的提示注入攻击涉及用户在文本提示中插入额外内容,以操纵模型的输出。在这些攻击中,输出可能导致意外、有偏见、不正确和冒犯性的响应,即使模型专门针对这些响应进行了编程。

此外:我们还没有准备好应对生成式AI对选举的影响

由于大多数AI公司努力创建提供准确和无偏信息的模型,保护模型免受恶意用户的攻击至关重要。这可能包括对模型可以输入的内容的限制以及对用户可以提交的内容进行全面监控。

对AI模型的后门攻击

后门攻击是对AI系统最危险的攻击之一,因为它们可能长时间不被察觉。后门攻击可以使黑客隐藏代码在模型中,破坏模型的输出,同时窃取数据。

“一方面,这些攻击非常与机器学习相关,需要很多机器学习专业知识才能修改模型的权重,将后门加入模型或者进行特定的微调,以整合后门,”法比安解释道。

此外:如何阻止OpenAI的新AI训练网络爬虫获取您的数据

这些攻击可以通过安装和利用后门来实现,后门是一个隐藏的入口,绕过传统的身份验证,以操纵模型。

“另一方面,对抗这些攻击的防御机制与经典的安全最佳实践非常相似,如对恶意内部人员进行控制和限制访问,”法比安补充道。

攻击者还可以通过提取和窃取训练数据来攻击AI系统。

谷歌的AI红队

法比安在最近的一篇博文中解释说,红队这个名字来自“军队,描述了一个指定的团队扮演对抗角色(‘红队’)来对抗‘主队’的活动。”

“传统的红队是一个很好的起点,但是针对AI系统的攻击很快变得复杂,并且会受益于AI专业知识,”法比安补充道。

此外:您是否卷入了最新的数据泄露事件?如何找出

攻击者还必须建立相同的技能和AI专业知识,但法比安认为谷歌的AI红队以他们已经拥有的AI知识领先于这些对手。

法比安对他的团队正在进行的工作持乐观态度,认为这将有利于保护者而不是攻击者。

“在不久的将来,机器学习系统和模型将使我们更容易识别安全漏洞,”法比安说。“从长远来看,这绝对有利于保护者,因为我们可以将这些模型集成到我们的软件开发生命周期中,并确保我们发布的软件一开始就没有漏洞。”