“AI的五种负责使用方式”

Five Responsible Uses of AI

正如专业人士发现将其数据从一个云提供商迁移到另一个云提供商难以实现一样,他们在构建AI模型和支持的IT基础设施时应当意识到潜在的成本。

生成式人工智能(AI)和自动化的不可避免崛起对专业人士及其所在的组织产生了巨大的影响。

运营任务正在自动化,工作角色正在发生变化。然而,这场革命对企业、员工、客户和整个社会的全面影响几乎无法估量。

随着AI在本十年的余下时间内被采纳和适应,这一转变的全部影响将变得更加清晰。目前,越来越多的专业人士正在尝试这些新兴技术,如ChatGPT等。

另外:最佳AI聊天机器人:ChatGPT和其他值得关注的替代品

在这些探索进行之际,负责任的AI(Accenture将其定义为以良好意图设计、开发和部署AI的实践)变得越来越重要。

然而,这种责任要求并不一定得到落实:该咨询公司报告称,仅有35%的消费者信任组织如何实施AI。

因此,随着专业人士开始扩大其对AI的使用,他们如何确保他们和他们所在的组织在利用这一新兴技术时具备责任心呢?

这是Thomson Reuters新闻和信息专家Carter Cousineau的首要任务,她担任数据和模型治理副总裁一职,帮助公司以负责任的方式利用AI和机器学习。

与其他蓝筹企业一样,Thomson Reuters刚刚开始探索许多这些新兴技术的潜力,特别是生成式AI。

然而,Cousineau表示,从这些初步的探索中已经清楚一件事:“负责任的AI必须贯穿整个生命周期的伦理内嵌。”

另外:如果我们不立即采取行动,今天的AI繁荣将加剧社会问题

她对道德实施AI的重要性的看法不仅基于她在Thomson Reuters的时间。

她曾担任Guelph大学推动负责任和伦理人工智能发展中心的董事总经理。她的研究兴趣涵盖了从人机交互到可信AI的一系列主题。

除了学术研究,Cousineau还与科技初创公司、非营利组织、中小企业和财富500强公司合作。

自2021年9月加入Thomson Reuters以来,她已经在实践中应用了她在研究活动中学到的一些东西。

“能够进入一个公司并思考如何影响和改变文化以推动信任,这令人兴奋,”她说。

另外:AI和先进应用正对当前技术基础设施造成压力

从数据使用到模型废弃的整个过程中,她的全球团队涵盖了AI生命周期,确保信息和洞察以一种良好治理和伦理方式使用。

她表示,如果专业人士想要负责任地利用AI,他们必须考虑以下五个关键因素。

1. 为法规做准备

在Thomson Reuters为伦理AI奠定基础之后,Cousineau现在确保员工在持续的基础上遵守这些经过深入磨合的原则。

然而,她意识到不同的业务线对AI和自动化有不同的要求。此外,随着来自外部立法者的进一步压力,这些需求也会发生变化。

无论是《通用数据保护条例》、欧盟AI法案还是有关自动化的待定规定,她的团队会制定正确的检查和平衡措施,以帮助Thomson Reuters员工以灵活但安全可靠的方式进行数据和模型创新。

“我们审查所有这些法规,并确保在新规定出台时我们已经做好准备,”她说。

此外:AI伦理工具包已更新,包括更多评估组件

2. 保持开放心态

Cousineau不喜欢企业创建一个统一的AI清单,然后假设工作已经完成。

她说:“你的模型,尤其是生成式AI,不断学习。你的数据不断转化,并且有不同的数据用途。因此,创建数据模型资产的可见性非常重要。”

她表示,在法律义务方面保持开放心态至关重要,但也存在一个重点转变的时刻,开放性也变得在运营上有益。

她说:“重要的是,你的团队开始看到并了解如何建立负责任的AI文化,因为他们需要更多地了解通过生产者或消费者的视角如何使用这些数据模型。”

此外:领导者警惕:尘埃永远不会停息,生成式AI可以提供帮助

3. 使用数据影响评估

Cousineau表示,无论模型是在概念验证阶段还是朝着生产阶段迈进,汤姆森路透都会持续检查所有用例中的负责任AI。

从自动化的早期开始,她的团队就进行数据影响评估。这项基础工作在涉及生成式AI的新用例出现时被证明至关重要。

她说:“我们与总法律顾问合作,采用跳过逻辑的方法。根据你的用例,它会提示你适当的阶段或伦理关注点,并要求提供当前的用例。”

“这种方法建立了支持隐私需求、数据治理、模型治理和伦理的用例图景。这让我们能够快速反应。因此,当我们得到数据影响评估结果时,我们的团队会立即在各个团队中采取措施来减轻这些风险,而这些风险是非常具体的。”

此外:使用自己的数据训练AI模型以减轻风险

4. 建立可信赖的合作伙伴关系

Cousineau表示,汤姆森路透与多个个人和组织合作,以确保隐私、安全和责任成为所有AI用例的核心。

这些合作伙伴关系跨越业务范围,并超越防火墙,包括与客户和技术合作伙伴(包括Snowflake)的关系。

她说:“对我来说,负责任的AI是与值得信赖的组织合作。这涉及构建基础架构和创建协作文化。”

“这项工作涉及确保你的模型透明,能够解释它们,并且它们是可解释的,公平地对待人们及其数据。这也涉及考虑到支持模型所需的可持续性和计算能力。”

此外:Nvidia与Snowflake合作开展大型语言模型AI

5. 注意财务成本

最后,当你开始尝试使用AI时,Cousineau表示,记住系统上线比关闭系统更容易是至关重要的。

就像专业人士发现将数据从一个云提供商迁移到另一个云提供商很困难一样,他们应该意识到在构建AI模型和支持的IT基础设施时可能产生的潜在成本。

因此,负责任的AI涉及考虑长期的财务风险。

此外:这是我对工作的5个最喜欢的AI工具

她说:“要注意成本的复杂性。一旦你将生成式AI集成到你的用例中,而且这是你希望继续使用的东西,那么要迁移到不同的语言模型就非常困难,因为它是在该系统上学习的。因此,迁移工作的成本非常复杂。”