「生成式人工智能的三个最大风险-以及如何应对」

「克服生成式人工智能的三大挑战-探讨应对之策」

chatbot-gettyimages-1497009416

感觉好像每个地方的每个人都在涉足生成式人工智能(AI)。从编写代码的开发人员到创建内容的营销人员,各种角色的人们都在寻找通过新兴技术提高生产力的方法。

利用AI的热潮使得Gartner分析师预计到2026年,超过80%的企业将在生产环境中使用生成式AI应用程序接口、模型和软件。

此外:AI正在改变各个组织。这6家公司如何引领变革

但值得记住的是,尽管生成式AI引起了很多炒作,但许多企业(至少正式情况下)还没有涉足这项技术。

对于大多数企业来说,生成式AI仍处于探索阶段,Gartner报告称,不到5%的企业在生产中使用该技术。

猎头公司Harvey Nash的技术和数字高级搜索负责人Lily Haake在与ENBLE的视频聊天中表示,她与客户合作的工作表明,目前并没有大规模的AI项目。

她说:“我看到了一些非常令人印象深刻的小规模试点项目,比如法律客户使用AI生成文档以扫描案例负载并提高工作效率,这一切都非常令人兴奋和积极。但规模很小,并不是正在探索生成式AI的一个影响公司整体业务的大规模举措。”

大多数数字领导者不是为了改变组织运营和改善客户服务而使用AI,而是在企业边缘进行实验,然后考虑如何将新的生成式服务引入核心。

然而,即使企业没有对生成式AI使用进行强制要求,这并不意味着职业人士已经在使用这项技术,不论老板同意与否。

此外:生成式AI进步将迫使企业做出大胆且迅速的思考

技术专家O’Reilly的研究表明,44%的IT专业人员已经在其编程工作中使用AI,34%正在进行实验。近三分之一(32%)的IT专业人员正在使用AI进行数据分析,而38%正在进行实验。

报告的作者Mike Loukides表示,O’Reilly对这一采用程度感到惊讶。

但尽管他将生成式AI的增长描述为“爆炸性”,Loukides表示,如果企业忽视与技术快速采用而来的风险和危害,他们可能会进入“AI寒冬”。

这与Gartner的杰出副总裁分析师Avivah Litan的观点一致,他认为CIO和C级高管们不能坐视不管。

此外:最佳AI聊天机器人:ChatGPT和其他值得关注的替代品

“在一对一的视频采访中,她说:“在它们管理您之前,您需要管理风险。”

利坦表示,Gartner最近在一次网络研讨会中对700多位高管进行了关于生成AI风险的调查,发现首席信息官最关注的是数据隐私,其次是幻觉,然后是安全。

让我们依次考虑这些领域。

1. 隐私与数据保护风险

实施企业版本的生成AI的首席信息官和其他高级经理很可能会将其数据发送到供应商的托管环境中。

利坦承认这种安排并不新鲜-十多年来,组织一直将数据发送到云和软件即服务提供商那里。

然而,她说,首席信息官认为AI涉及一种不同类型的风险,尤其是关于供应商如何存储和使用信息,例如用于训练他们自己的大型语言模型。

此外:网络安全101:如何保护您的隐私并确保在线安全

利坦表示,Gartner已对许多提供AI能力的IT供应商进行了详细分析。

她说:“数据保护的底线是,如果您正在使用第三方基础模型,则一切都建立在信任之上,但您无法进行验证。”她说。“因此,您必须相信供应商具有良好的安全实践,并且您的数据不会泄露。我们都知道在云系统中会发生错误。如果您的机密数据泄露,供应商将不承担责任-您将承担责任。”

2. 输入和输出风险

除了评估外部流程中的数据保护风险外,组织还需要了解员工如何在生成AI应用和模型中使用数据。

利坦说,这些风险涵盖了不可接受的数据使用,可能会损害决策过程,包括对机密输入不认真对待,产生错误幻觉作为输出,并使用来自另一家公司的知识产权。

此外:生成AI的伦理问题:我们如何应用这一强大的技术

加入伦理问题和模型可能存在偏见的担忧,企业领导者面临一系列输入和输出风险的交汇。

利坦表示,管理生成AI推出的高管必须确保企业各个部门对任何事情都不掉以轻心。

她说:“您必须确保您以符合组织的方式使用数据和生成AI;您不会泄漏您王国的钥匙,而且回馈的信息经过审核,确保准确无误。”

3. 新的网络安全风险

企业每天都面临各种网络安全风险,例如黑客利用系统漏洞或员工的错误而获取企业数据的访问权限。

然而,利坦表示AI代表了一种不同的威胁向量。

她说:“这些都是新风险。”“有快速注入攻击、矢量数据库攻击,黑客可以获得模型状态和参数的访问权限。”

此外:通过多样性利用AI来改善网络安全

尽管潜在风险包括数据和资金损失,但攻击者还可以选择操纵模型,并替换好数据为坏数据。

利坦表示,这种新的威胁向量意味着企业不能仅凭旧有且经过实践验证的措施来应对新的风险。

她说:“攻击者可以破坏模型。”“您将不得不在模型周围进行安全保护,而这是一种不同的安全保护。端点保护无法帮助您保护数据模型。”

您的业务需要立即采取的行动

生成AI带来的这些风险组合可能对首席信息官和其他高级执行人员来说似乎是一个难以应对的挑战。

然而,利坦表示,与生成AI相关的风险和机遇一样迅速发展,新的解决方案也在不断涌现。

她说:“您不需要坐在那里恐慌。”

“新市场正在发展。可以想象,当出现问题时,总有希望从这些问题中获利的企业家。”

此外:AI和自动化:商业领导采用小规模解决方案以实现更大影响

好消息是可行的解决方案正在路上。而且在科技市场稳定之际,利坦说业务领导者应该做好准备。

“我们给CIO们的底线建议是‘组织好自己,然后定义你的可接受使用政策。确保你的数据得到分类,你有访问管理,’”她说。

“建立一个系统,用户可以提交他们的应用请求,你知道他们使用的数据是什么,正确的人批准这些请求,并且你每年检查两次流程,确保它被正确执行。一次只迈出生成式人工智能的一小步罢了。”