谨防信任缺口:数据问题引发顾客对生成式人工智能的谨慎态度

Beware of trust gap data issues trigger customer caution towards generative artificial intelligence

生成式人工智能(AI)被认为是组织确保市场相关性的关键,但一些人对数据和信任问题持有犹豫态度。

对于那些在数据治理规定严格、拥有庞大客户群的行业中运营的企业来说,这些问题尤为重要,这促使他们在采用生成式AI工具时暂时保持观望,尽管这些工具被吹捧为具有各种好处。

此外:随着生成式AI服务进入市场,企业需要明确定价

例如,通过提示生成销售报告而不是手动处理电子表格,对于Salesforce的Einstein Copilot等生成式AI工具来说,提供了有趣的潜力,菲律宾餐厅连锁经营商Jollibee Foods Corporation的开发运营负责人Sarwar Faruque表示。该公司使用Salesforce的Heroku构建其应用程序,并使用Mulesoft作为中间件连接其应用程序,包括ERP和订单管理系统。

Jollibee在全球34个国家拥有将近4,000家门店,拥有15,000名员工。它的应用程序主要在云上运行,因此它不维护自己的数据中心,只有一个小型内部网络除外。

Faruque还看到AI在制造业中的潜力,可以提高生产流水线和装配的效率。例如,AI可以帮助监控食品质量并预测需求。

然而,他对AI的潜在用途的兴趣仅限于后端运营。Faruque坚决不希望将生成式AI用于客户互动和面向客户的运营,至少目前还不希望。

他指出,由于这项技术仍处于起步阶段,仍有许多需要了解和解决的问题。

他说:“我们看到它生成的输出和回应,但我们并不真正了解它是如何得出答案的。有一个黑盒子……它需要被解密。我想知道它是如何工作的,它是如何得出回应的,以及这个答案是否可重复(每次问相同的问题时)。”

此外:为什么公司必须使用AI进行不同思考,而不仅仅是为了降低成本

他表示,目前情况并非如此,还存在产生幻觉的风险。在没有发生安全事故的情况下,人们对是否存在任何固有的网络安全问题了解甚少。

Faruque说:“现在,只是有很多营销炒作。”他补充说,仅仅谈论“信任”是不够的,没有提供具体细节。

他敦促AI供应商解释他们的大型语言模型是如何形成的,它们消耗什么数据,以及它们到底是如何生成回应的。他说:“他们需要停止表现得像是魔法一样(事实上)它是有代码运行和科学支持的。帮助我们了解它,因为我们不喜欢采用我们没有充分了解的技术。”

他强调了对问责制和透明度的需求,以及保证客户数据用于训练AI模型的数据不会公开。这对于需要遵守本地数据隐私规定的组织尤为重要。

此外:衡量信任:为什么每个AI模型都需要一个FICO评分

在这些问题得到解决之前,他表示不愿冒着自己客户数据的风险。

对于新加坡贸工部(MTI)而言,信任也是一个严肃的问题,尤其是在数据隐私和安全方面。该部下辖十个政府机构,包括EDB和新加坡旅游局。

MTI的部委家庭首席信息官Sharon Ng表示,特别是该部的数据必须保留在新加坡,这在确保数据安全和治理方面是一个巨大的障碍。这意味着它使用的任何AI和大型语言模型都应该托管在自己的环境中,即使是由Salesforce的Einstein Copilot平台等美国供应商运行。

与Faruque一样,Ng也强调了透明度的必要性,特别是安全层的详细信息,包括使用了什么类型的加密以及是否保留数据,她指出。

另外:如何信任生成式人工智能以改善联网客户体验

她的团队目前正在探索如何利用包括Salesforce在内的生成式人工智能工具来使部委受益,该部委对市场上可用的不同人工智能和大型语言模型持开放态度。她说,这将比建立自己的模型更省成本,并缩短上市时间。

然而,任何人工智能模型的使用都仍然需要考虑信任和安全问题,她指出。MTI目前正在进行旨在提高运营效率和简化机构工作任务的生成式人工智能试点。

对于新加坡电信公司M1来说,提供更好的客户服务是生成式人工智能的明确关键绩效指标。然而,像MTI和Jollibee一样,数据合规性和信任是关键,M1的首席数字官Jan Morgenthal表示。该电信公司目前正在进行概念验证,评估生成式人工智能如何改进其聊天机器人与客户之间的互动,以及是否支持英语以外的其他语言。

这意味着与供应商合作,找出参数并了解大型语言和人工智能模型的部署位置,Morgenthal说。与MTI和Jollibee类似,M1还必须遵守规定,要求其部分数据,包括托管在云平台上的数据,驻留在本地市场。

另外:在人工智能之前,这股其他技术浪潮正迅速席卷

他说,这意味着AI模型的训练必须在M1的网络环境中进行。新加坡电信公司还需要注意用于训练模型和生成响应的数据,这些数据应进行测试和验证,他说。这些不仅需要根据供应商(如Salesforce的Trust Layer)规定的指南进行检查,还需要根据M1的母公司Keppel的防护措施进行检查。

解决生成式人工智能的信任差距

在人们对使用人工智能的信任下降的背景下,这些努力将变得至关重要。

根据Salesforce上个月发布的一项调查,现在企业和消费者对使用人工智能的态度较以前更加谨慎。73%的企业买家和51%的消费者对使用技术改善体验持开放态度,较2022年分别下降了9个百分点和14个百分点。

虽然76%的客户相信企业能够诚实地宣传其产品和服务,但只有57%的客户相信他们能够以道德的方式使用人工智能。另外,68%的人认为人工智能的进步使企业的信任更加重要。

信任差距是组织面临的一个重大问题和关注点,科技研究亚洲公司的创始人兼董事Tim Dillon指出,Zoom在更改其服务条款时遭受了抨击,因为它有权使用用户的视频、音频和聊天数据来训练其人工智能模型。

另外:对于金融公司及其客户来说,人工智能、信任和数据安全是关键问题

在接受ENBLE采访时,Dillon表示,生成式人工智能供应商希望避免类似的情况,他指出Salesforce和Microsoft等市场参与者已经努力填补信任差距,这是一个积极的步骤。

除了解决信任问题,计划采用生成式人工智能的组织还应考虑实施变革管理,研究公司CapioIT的首席执行官兼创始人Phil Hassey指出。

Hassey告诉ENBLE,这是一个常常被忽略的领域。组织必须弄清楚涉及的成本以及他们需要获取的技能和需要重新培训的角色,因为引入生成式人工智能会带来这些结果。

他说,正确的变革管理策略对于确保平稳过渡和留住人才至关重要。

ENBLE记者Eileen Yu在Salesforce.com的邀请下报导了从旧金山举行的Dreamforce 2023。