在工作场所使用公共生成式人工智能工具的危险

几名员工已将机密信息,如客户数据,输入到公开生成的AI系统中

“`html

Employees risk inputting sensitive data into AI tools

Lock with wheels turning inside

想象一下,你站在悬崖边,手里拿着一份珍贵的文件。风在呼啸,威胁着将文件从你手中夺走。你知道放手可能会导致灾难性后果,但出于某种原因,你还是决定将其扔进下面旋涡中。这就是一些员工在自愿将敏感数据输入到公开可用的生成人工智能(AI)工具时的感受。

客户信息、销售数据、财务数据以及如电子邮件地址和电话号码等个人可识别信息都处于风险之中。Veritas Technologies最近进行的一项研究表明,有39%的员工意识到在使用公共生成AI工具时可能会泄漏敏感数据的潜在风险,而有38%担心这些工具可能生成不正确、不准确或无用的信息。此外,37%的受访者提到合规风险,19%认为这项技术可能对生产力产生负面影响。

🔥 热门提示:想学习如何负责地使用人工智能吗?不妨查看这篇文章获取一些有价值的见解!

尽管存在这些担忧,令人惊讶的是,有57%的员工承认每周至少使用一次公共生成AI工具,其中有22.3%甚至每天都依赖这项技术。然而,并非所有人都愿意冒这个风险。大约28%的人报告称根本不使用这些工具。

那么为什么员工们会自愿将敏感数据置于危险之中?研究发现,有42%的受访者使用生成AI工具进行研究和分析,而41%用它们撰写电子邮件和备忘录,40%希望提高写作技能。

员工们认为将哪些数据输入这些公共生成AI工具可以为企业提供价值?结果显示,30%的员工指出客户信息,如参考资料、银行详细信息和地址,而29%提到销售数据。此外,28%强调财务信息,25%表示个人可识别信息。还发现有22%的工作人员提及机密人力资源数据,17%提到机密公司信息。令人惊讶的是,27%的受访者认为将任何敏感信息输入这些工具并不会为企业带来价值。

更令人担忧的是,有31%的员工承认将敏感数据输入这些工具,而5%不确定是否这样做过。但积极的是,64%的受访者声称他们没有向公共生成AI工具输入任何敏感数据。

🔥 热门提示:考虑从事人工智能方面的职业吗?查看这些5个步骤成功转变你的职业!

但并非一片黯然。在工作中使用生成AI也有一些好处。当被问及对组织的好处时,48%的受访者强调更快获取信息,40%提到生产力更高,39%相信生成AI可以替代枯燥的任务,34%认为它有助于产生新思路。

有趣的是,有53%的员工认为他们的同事可以访问和使用生成AI工具是不公平的,认为这是一种优势。事实上,40%的人认为那些使用这些工具的人应该被要求在团队或部门里教给其他人。一些员工甚至表示应当向使用这些工具的同事的直线经理报告或面临纪律处分。

令人惊讶的是,只有36%的受访者表示在工作中对使用公共生成AI工具有正式指导和政策。缺乏明确的政策使员工面临潜在风险。然而,绝大多数(90%)的受访者认为,在工作场所制定有关新技术使用的准则和政策是重要的。68%的人认为每个人都应该知道采用生成AI的“正确方式”。

随着生成AI使用量增加,风险将加剧

随着生成AI的采用增加,与之相关的安全风险可能会升级。根据IBM的X-Force威胁情报指数2024,当单个生成AI技术接近50%的市场份额或市场只集中在三种技术时,关键平台可能面临大规模攻击。这意味着随着生成AI变得更加普遍,网络犯罪分子将抓住机会利用漏洞并发动针对性攻击。

“`将此HTML转换为中文(保留HTML代码并保留标签中src属性的原始信息):

🌟 深度分析:要深入了解生成式人工智能的风险和未来发展,请阅读这份全面的报告

组织在威胁行为扩大之前保护其人工智能模型至关重要。网络犯罪分子已经开始针对人工智能技术,2023年暗网论坛中关于人工智能和GPT(生成式预训练转换器)的帖子超过了80万条。随着对手不断优化其攻击,基于身份的威胁将会增长。

IBM强调了在生成式人工智能时代采取全面安全方法的必要性。企业必须认识到,保护其人工智能模型不仅仅是实施新颖策略来保护其基础架构。通过解决安全基本原则,例如基于身份的攻击和有效帐户的利用,企业可以降低与生成式人工智能相关风险。

🎥 视频添加:要了解保护人工智能模型的紧迫性,请观看这段富有启发性的视频,深入探讨人工智能安全的重要性。

2023年,涉及专门设计用于窃取个人可识别信息的恶意软件攻击增加了266%。欧洲组织是全球受到攻击最多的,占32%的事件。然而,亚太地区和北美也受到了重大影响。有70%的攻击针对关键基础设施组织,其中85%的事件可以通过打补丁、多因素身份验证或应用最低特权原则来减轻。

🌍 全球影响:要了解不同地区如何受到网络攻击的影响,请查看这些有洞察力的统计数据

作为该领域的专家,跟上最新趋势和新闻非常重要。以下是一些进一步阅读的额外资源:

  1. 沃尔玛在CES上推出生成式人工智能搜索和人工智能补货功能
  2. 2024年关键人工智能政策蓝图,用于保障职场风险
  3. 中国的生成式视频竞赛愈演愈烈
  4. 微软扩大欧盟数据本地化工作
  5. Anecdotes获得2500万美元用于扩大其风险管理合规业务

所以,下次当你想将敏感数据输入到公共生成式人工智能工具中时,请记住风险和后果。与同事分享这篇文章,提高关于负责任和安全地使用新技术重要性的意识。我们可以共同保护我们的数据,并自信地在人工智能世界中航行。

让我们联系:对职场中使用公共生成式人工智能工具的风险和好处有何看法?在评论中分享您的经验,并加入我们社交媒体平台上的讨论!


参考资料

  1. 图片:链接
  2. 沃尔玛在CES上推出生成式人工智能搜索和人工智能补货功能:链接
  3. 2024年关键人工智能政策蓝图,用于保障职场风险:链接
  4. 中国的生成式视频竞赛愈演愈烈:链接
  5. 微软扩大欧盟数据本地化工作:链接
  6. Anecdotes获得2500万美元用于扩大其风险管理合规业务:链接
  7. 负责任使用人工智能的五种方法:链接
  8. 最佳人工智能聊天机器人:链接
  9. 想在人工智能领域工作吗?如何通过5个步骤转变您的职业道路:链接
  10. IBM的X-Force威胁情报指数2024:链接
  11. 文艺复兴技术专家如何连接人工智能和业务之间的关联:链接
  12. 所以您想在人工智能领域工作?技术专业人士如何在人工智能时代生存和蓬勃发展:链接
  13. 技术专业人士如何在人工智能时代生存和蓬勃发展:链接
  14. 所以您想在人工智能领域工作?技术专业人士如何在人工智能时代工作中生存和蓬勃发展:链接
  15. 文艺复兴技术专家在美国关键基础设施中潜伏了至少五年:链接