AI 监管:在创新、自律和治理之间寻求平衡

人工智能监管:在创新、自律和治理之间寻求平衡

随着关于人工智能未来的讨论不断增多,关于人工智能治理的辩论也越发激烈。有人认为使用或采购人工智能工具的公司应该被允许自我监管,而另一些人则认为政府应采取更严格的立法。

急需在迅速发展的人工智能领域进行一些治理是明显的。

人工智能的兴起:新一代创新

人工智能有很多应用领域,但在人工智能领域,最具创新能力和知名度的组织之一是OpenAI。OpenAI在其自然语言处理器(NLP)ChatGPT走红后声名鹊起。自那时以来,OpenAI的几项技术取得了相当大的成功。

许多其他公司也在投入更多时间、研究和资金,希望寻找类似的成功故事。根据rsm dotglobal的数据,仅在2023年,人工智能的支出预计将达到1540亿美元,比前一年增长27%。自ChatGPT发布以来,人工智能已经从边缘成为几乎世界上每个人都知道的事情。

人工智能的普及可以归因于多种因素,包括其改善了公司的产出潜力。调查显示,当工人们提高他们的数字技能并与人工智能工具进行协作时,他们可以提高生产力,增加团队绩效,并提升解决问题的能力。

在看到如此正面的发表后,许多各行各业的公司,从制造业和金融业到医疗保健和物流业,都在使用人工智能。随着人工智能似乎在一夜之间成为新常态,许多人担心快速实施会导致技术依赖、隐私问题和其他伦理问题。

人工智能的伦理:我们需要人工智能监管吗?

随着OpenAI的迅速成功,立法者、监管机构和公众对安全和伦理问题进行了更多讨论。有些人支持在人工智能生产中进一步增长道德,而另一些人则认为个人和公司应自由使用人工智能,以促进更重大的创新。

如果不加控制,许多专家认为将出现以下问题。

  • 偏见和歧视:公司声称人工智能有助于消除偏见,因为机器人无法歧视,但人工智能系统所具有的公平性和无偏见程度仅取决于输入其中的信息。如果编码人工智能时使用的数据已经存在偏见,那么人工智能工具只会放大和持续这些偏见。
  • 人类行动能力:许多人认为他们会变得依赖人工智能,这可能会影响他们的隐私和对自己生活的控制权。
  • 数据滥用:在一个日益数字化的世界中,人工智能可以帮助应对网络犯罪。人工智能有能力分析大量的数据,这使得这些系统能够识别可能存在的威胁模式。然而,人们担心公司也会利用人工智能收集可以被用于滥用和操纵人们和消费者的数据。这导致人工智能是让人们更加安全还是更加脆弱的问题(来源:forgerock dotcom)。
  • 虚假信息的传播:因为人工智能不是人类,它不理解什么是对什么是错。因此,人工智能可能会无意中传播虚假和误导性信息,而这在今天的社交媒体时代特别危险。
  • 缺乏透明度:大多数人工智能系统都像“黑匣子”一样运作。这意味着没有人能够完全知道这些工具达到某些决策的方式和原因。这导致缺乏透明度和对责任的担忧。
  • 工作丧失:工作岗位流失是劳动力内部最大的担忧之一。虽然人工智能可以增强工人的能力,但许多人担心雇主只会选择完全替代他们的员工,选择利润而不顾伦理。
  • 混乱:总的来说,人们普遍担心,如果不对人工智能加以规范,它将导致大规模的混乱,比如信息武器化、网络犯罪和自主武器。

为了应对这些问题,专家们正在推动更多道德解决方案,例如把人类的利益置于人工智能和其利益之上。许多人认为,关键在于在不断实施人工智能技术时优先考虑人类。人工智能永远不应该试图替代、操纵或控制人类,而应该与人类合作,共同增强可能性。而要做到这一点,最好的方法之一就是在人工智能创新和人工智能治理之间找到平衡。

人工智能治理:自律与政府立法

对于制定人工智能政策,问题是:到底是谁应该对人工智能的道德风险进行监管或控制?

应该是公司自己和他们的利益相关者吗?还是政府应该介入制定普遍要求所有人遵守相同规则和法规的政策?

除了确定谁应该进行监管外,还存在一些问题,例如究竟应该监管什么以及如何监管。这些问题是人工智能治理的三个主要挑战。

谁应该监管?

有人认为政府不了解如何正确进行人工智能监管。根据政府以往对数字平台进行监管的尝试,他们制定的规则不够灵活,无法应对技术发展的速度,例如人工智能。

因此,有人认为,我们应该允许使用人工智能的公司扮演类似政府的角色,制定他们自己的规则来管理人工智能。然而,这种自律的方法已经导致了许多众所周知的问题,如数据隐私问题、用户操纵以及仇恨、谎言和错误信息的传播。

尽管争论不休,但组织和政府领导人已经采取了措施来监管人工智能的使用。例如,欧洲议会已经迈出了确立全面人工智能法规的重要一步。在美国参议院中,多数党领袖查克·舒默正领导制定一项广泛的人工智能监管计划。美国白宫科学技术办公室也已经开始制定《人工智能权利法案》的蓝图。

至于自律,四家领先的人工智能公司已经联合起来创建了一个自我管理的监管机构。微软、谷歌、OpenAI和Anthropic最近宣布成立Frontier Model Forum,以确保公司参与安全和负责任的使用和开发人工智能系统。

应该监管什么以及如何监管?

还有一个挑战是确定应该监管什么 —— 安全和透明性等是主要关注的问题之一。为了应对这个问题,国家标准与技术研究院(NIST)已经在他们的《人工智能风险管理框架》中建立了安全人工智能实践的基准。

联邦政府认为,使用许可证可以帮助对人工智能进行监管。许可证可以作为一种监管工具,但它也有其缺点,例如当人工智能和数字技术的影响不均匀时,它更像是一种“一刀切”的解决方案。

欧盟对此的回应是一个更具敏捷性的基于风险的人工智能监管框架,它允许多层次的方法更好地应对人工智能的各种用例。根据风险水平的评估,将实施不同的期望。

总结

不幸的是,目前还没有确切的答案来回答谁应该进行监管以及如何监管的问题。目前仍在探索多种选择和方法。尽管如此,OpenAI首席执行官Sam Altman已经支持设立一个专门负责人工智能监管的联邦机构的想法。微软和Meta公司也曾经支持设立一个国家级的人工智能监管机构的概念。

然而,在达成明确决定之前,最好的做法是让使用人工智能的公司尽可能地负责任地行事。所有组织都有法律要求以责任保护运营。如果发现任何公司违反这一点,可能会引发法律后果。

很明显,监管实践是必须的 —— 没有例外。因此,目前由公司决定如何在保护公众利益和促进投资和创新之间走好这条细线。

特色图片来源:Markus Winkler;Pexels