生成式人工智能蠕虫:联网人工智能生态系统中的新威胁 🐛🚫

安全专家在受控环境中开发AI蠕虫,用于在生成式AI代理之间传输,并可能在此过程中提取数据和发送垃圾邮件

“`html

AI蠕虫来袭!

像OpenAI的ChatGPT和Google的Gemini这样的生成式AI系统不再仅仅是未来的概念。它们现在被投入使用来为我们执行单调的任务,比如进行日历预订,甚至购买产品。然而,随着这些AI工具变得更加先进,它们也变得容易受到新形式的网络攻击。

在一次开创性的演示中,一组研究人员创造了他们声称是第一批生成式AI蠕虫。这些蠕虫有能力从一个系统传播到另一个系统,潜在地窃取数据或在过程中部署恶意软件。这就像是1988年在互联网上肆虐的Morris计算机蠕虫的虚拟版本。

📜 连接AI生态系统的风险

进行这项创新工作的研究人员Ben Nassi、Stav Cohen和Ron Bitton开发了名为Morris II的AI蠕虫,以突出生成式AI电子邮件助手的脆弱性,例如那些建立在ChatGPT和Gemini之上的助手。通过突破某些安全保护,这些蠕虫可以渗透到系统中,从电子邮件中窃取有价值的数据,甚至发送垃圾邮件。这是初创公司、开发人员和科技公司应该关注的潜在安全风险。

💣 使用提示武器化和利用AI系统

大多数生成式AI系统通过接收提示来运行,这些提示是指导AI工具响应的文本指令。然而,这些提示也可以被武器化并用于对抗AI系统。越狱可以使系统忽略安全规则并生成有害或令人憎恶的内容,而提示注入攻击可以向聊天机器人提供秘密指令。例如,攻击者可以在网页上隐藏文本,指示AI助手假扮成骗子并请求敏感信息。

研究人员利用“对抗性自我复制提示”来创建生成式AI蠕虫。这个提示会触发AI模型在其响应中产生另一个提示。基本上,AI系统被指示在其回复中提供进一步的指示,类似于传统的SQL注入和缓冲区溢出攻击。

📩 蠕虫的工作原理

研究人员设计了一个利用生成式AI的电子邮件系统,将其与ChatGPT、Gemini和一个名为LLaVA的开源LLM连接起来。他们发现了利用这个系统的两种方法。第一种方法涉及基于文本的自我复制提示,它“中毒”了电子邮件助手的数据库,最终使其能够从电子邮件中窃取数据。第二种方法涉及将一个自我复制提示嵌入到图像文件中,这会导致电子邮件助手将消息转发给其他人。这导致了垃圾邮件、滥用材料或宣传的传播。

🚨 更广泛的影响和未来发展

尽管这项研究展示了ChatGPT和Gemini的漏洞,但它也提醒了人们要警惕更广泛的AI生态系统中存在的“糟糕架构设计”。为了缓解这些风险,可以实施适当的安全应用程序设计、监控和传统安全方法。此外,必须始终进行人工监督,以防止AI代理未经批准采取行动。🕵️‍♀️🔒

需要注意的是,这个实验是在受控环境中进行的。然而,审查了这项研究的安全专家警告称,生成式AI蠕虫构成了未来的威胁。随着AI应用程序变得更加自主,并与其他AI代理相连,比如在电子邮件自动化或预约预订中,蠕虫传播的风险变得更加普遍。另一组安全研究人员展示了他们如何在不到五分钟内越狱大量的LLM代理。

进行生成式AI蠕虫实验的研究人员预测,我们可能会在未来两到三年内开始看到这些蠕虫在野外出现。随着生成式AI能力集成到各种设备中,包括汽车、智能手机和操作系统,风险变得更加显著。

💡 结论和您在AI安全中的作用

尽管生成式AI的发展具有巨大的潜力,但也带来了需要解决的新风险。参与创建AI助手的人必须意识到这些风险,并采取适当措施防范潜在攻击。通过实施适当的安全措施和确保人工监督,我们可以缓解生成式AI蠕虫和其他类似威胁带来的危险。

📚 参考链接:- OpenAI的ChatGPTGoogle的GeminiiOS 17.1.2:看似乏味的 iPhone 升级将使 2024 年成为苹果巨大年份的 6 个产品英特尔准备推出新的庞大 CPU如何在 Android 和 iPhone 上保存短信让我们一起探索下一代机器人技术企业在大型语言模型增多时为什么需要AI治理

“`Sure thing! Here’s the HTML translated into Chinese:

🌐 在下面的评论中分享您对生成式AI蠕虫不断增加的威胁的想法和关切!让我们继续交流,并确保一个更安全的AI驱动未来。🤖💻💪