AI巨头承诺允许对其算法进行外部调查,根据新的白宫协议

AI巨头承诺允许外部调查其算法,依据新白宫协议

白宫已经与包括亚马逊、谷歌、Meta、微软和OpenAI在内的主要人工智能开发者达成协议,承诺采取措施防止有害的人工智能模型发布到世界上。

根据这项被白宫称为“自愿承诺”的协议,这些公司承诺在公开发布新的人工智能模型之前进行内部测试,并允许外部对其进行测试。测试将寻找包括偏见或歧视性输出、网络安全缺陷和更广泛社会危害风险在内的问题。初创公司Anthropic和Inflection,它们都是OpenAI的ChatGPT有力竞争对手的开发者,也参与了这项协议。

“公司有责任在将产品面向公众之前确保其安全,通过测试其人工智能系统的安全性和能力,”白宫人工智能特别顾问本·布坎南在昨天的新闻发布会上告诉记者。要求公司注意的风险包括隐私侵犯,甚至对生物威胁的潜在贡献。这些公司还承诺公开报告其系统的局限性以及可能带来的安全和社会风险。

协议还表示,这些公司将开发水印系统,使人们能够轻松辨别由人工智能生成的音频和图像。OpenAI已经在其Dall-E图像生成器生成的图像上添加了水印,谷歌表示正在开发类似的技术用于人工智能生成的图像。帮助人们分辨真假正在成为一个越来越大的问题,因为政治竞选似乎正在转向生成式人工智能,预计在2024年美国选举前。

生成文本或图像的人工智能系统的最新进展引发了在公司中适应该技术用于网页搜索和写推荐信等任务的人工智能竞赛。但新算法也引发了对人工智能加强压迫性社会体系(如性别歧视或种族主义)、增加选举虚假信息或成为网络犯罪工具的新关注。因此,包括华盛顿特区在内的世界许多地方的监管机构和立法者加大了对新规定的呼吁,包括在部署前评估人工智能的要求。

目前尚不清楚这项协议将如何改变主要人工智能公司的运营方式。对技术潜在副作用的日益认识使得科技公司普遍雇佣人员从事人工智能政策和测试工作。谷歌拥有测试团队,并公开一些信息,如某些人工智能模型的预期用途和伦理考虑。Meta和OpenAI有时会邀请外部专家尝试破坏他们的模型,这种方法被称为红队测试。

“以安全、安全性和信任为指导的持久原则,这些自愿承诺解决了先进人工智能模型所带来的风险,并促进了特定实践的采用,如红队测试和透明度报告的发布,这将推动整个生态系统的进步,”微软总裁布拉德·史密斯在一篇博文中说。

协议承诺公司应该关注的潜在社会风险不包括训练人工智能模型的碳足迹,而这已经成为人工智能系统影响研究中常被提及的一个问题。像ChatGPT这样的系统可能需要数千台高性能计算机处理器,运行较长时间。

专门从事人工智能的法律事务的BNH律师事务所的管理合伙人安德鲁·伯特表示,人工智能生成系统的潜在风险对涉及该技术的所有人都变得清晰。联邦贸易委员会上周开始对OpenAI的商业行为进行调查,指控该公司参与了“不公平或欺骗性的隐私或数据安全行为”。

白宫协议要求公司应委托外部评估其技术,这进一步证明外部审计正在成为“政府对人工智能系统进行监督的主要方式”,伯特说。

白宫也在去年发布的自愿人工智能权利法案中提倡使用审计,并支持下个月在Defcon安全会议上举办的以生成式人工智能模型为中心的黑客竞赛。审计也是欧盟正在最终确定的广泛人工智能法案的要求。

ORCAA首席策略师雅各布·阿普尔表示,这项协议是受欢迎的,但对ChatGPT等大型语言模型的一般评估是不够的。他表示,对高风险的特定人工智能使用案例,如用于生成医疗或法律建议的聊天机器人,应进行定制评估。而且,来自较小公司的系统也需要审查。

乔·拜登总统将于今天在白宫与加入新的人工智能协议的公司的高管会面,包括Anthropic首席执行官达里奥·阿莫迪、微软总裁布拉德·史密斯和Inflection AI首席执行官穆斯塔法·苏莱曼。他的政府还在制定一项行政命令,通过联邦机构的行动来管理人工智能的使用,但白宫没有具体的发布时间表。

更新于2023年7月21日下午2:20(美国东部时间):本文已获得ORCAA的Jacob Appel的评论。