“第三方AI工具负责55%的商业AI失败”

55%商业AI失败与第三方AI工具有关

想象一下,打开一个AI驱动的天气应用程序,预测下午公司野餐时天空晴朗,结果却站在倾盆大雨中抱着湿漉漉的热狗。或者,你的公司实施了一个AI工具用于客户支持,但与你的CRM集成不良,损失了宝贵的客户数据。

根据最新的研究,第三方AI工具导致了超过55%的组织中与AI相关的故障。这些故障可能导致声誉损害、财务损失、消费者信任流失甚至诉讼。这项调查由MIT Sloan Management Review和波士顿咨询集团进行,重点关注组织如何通过强调不负责任的AI来应对,并突出了不这样做的真实后果。

此外:如何为最佳生成式AI结果撰写更好的ChatGPT提示

“企业尚未完全将第三方风险管理计划适应AI背景或安全部署生成式AI产品等复杂系统的挑战,” Armilla AI的AI政策主管Philip Dawson告诉MIT研究人员。”许多人不对AI供应商或其产品进行类似于网络安全的评估,导致他们对部署第三方AI解决方案的风险视而不见。”

ChatGPT的发布在近一年前引发了技术中生成式AI的繁荣。不久之后,其他公司也效仿OpenAI发布了自己的AI聊天机器人,包括微软必应和谷歌巴德。这些机器人的受欢迎程度和功能也引发了伦理挑战和问题。

随着ChatGPT作为独立应用程序和API的受欢迎程度飙升,第三方公司开始利用其强大的功能,开发类似的AI聊天机器人,用于生成式AI解决方案,包括客户支持、内容创作、IT帮助和语法检查。

在涵盖87个国家的1240名受访者中,78%的受访者报告称他们的公司通过访问、购买或授权使用第三方AI工具。其中,53%的组织仅使用第三方工具,没有任何内部AI技术。尽管超过四分之三的调查公司使用第三方AI工具,但55%的与AI相关的故障源自使用这些工具。

此外:现在您可以与ChatGPT进行语音聊天。以下是如何操作

尽管78%的受访者依赖第三方AI工具,但20%未能评估它们带来的重大风险。研究得出结论,当团队在没有监督的情况下与供应商合作时,实现负责任的AI(RAI)更加困难,因此需要更全面地评估第三方工具。

“对于金融服务等受监管行业的客户,我们看到基于某种外部监管的模型风险管理实践与我们从RAI角度建议人们做的事情之间存在密切联系,” AI公司Dataiku的负责AI的Triveni Gandhi表示。

此外:为什么IT增长只会导致更多的倦怠,以及应该如何处理

第三方AI可以成为组织AI战略的重要组成部分,因此问题不能通过删除技术来解决。相反,研究人员建议采取全面的风险评估策略,如供应商审计、内部审查和符合行业标准。

由于RAI监管环境的快速演变,研究人员认为组织应该将负责任的AI作为优先事项,从监管部门到首席执行官。与首席执行官亲自参与RAI的组织比那些首席执行官不直接参与RAI的组织获得了58%更多的业务利益。

此外:为什么开源是人工智能的摇篮

研究还发现,首席执行官参与RAI的组织投资于RAI的可能性几乎是那些不参与的首席执行官的两倍。