OpenAI的超级对准项目:驯服未来的超级智能人工智能(AIs)

由OpenAI首席科学家Ilya Sutskever领导的超级对齐团队开发出一种能够引导人工智能模型不断智能前进的方法

OpenAI的Ilya Sutskever有一种控制超级智能AI的策略。

OpenAI是一家致力于建立人类利益的人工智能的公司,最近推出了Superalignment研究小组。该团队致力于管理和控制即将到来的潜在危险的超智能AI模型。参与Superalignment项目的研究员Leopold Aschenbrenner警告我们,我们即将面临具有难以想象能力的AI系统,并且我们目前缺乏控制它们的方法。OpenAI意识到了这个问题的重要性,并投入了五分之一的计算能力进行这项研究计划。

在一份新发布的论文中,OpenAI展示了进行实验的过程,测试一种允许低级别AI模型引导高级别模型行为的方法,而不会降低其智能。尽管该技术还不如人类灵活,但它代表了一种未来情景,人类必须与超越自身智能的AI系统合作。

目前调整AI系统的过程涉及人类的输入,即提供对其答案质量的反馈。随着AI技术的不断进步,研究人员正在探索自动化这一反馈循环的方法,既可以节省时间,也因为随着AI变得更加强大,人类可能无法提供有效的指导。

OpenAI的研究人员使用GPT-2文本生成器和更新的GPT-4模型(用于ChatGPT)进行了一项控制实验,来教导GPT-4。不幸的是,当GPT-4从GPT-2学习时,它变得能力降低,表现与低级别系统类似。研究团队测试了两种可能的解决方案。首先,他们训练逐步变大的模型,以减少每个步骤的性能损失。其次,他们对GPT-4进行了算法调整,允许更强的模型在不牺牲太多性能的情况下遵循较弱模型的指导。这种新颖的方法被证明更有效,尽管它不能保证更强的模型的行为完美无缺。然而,它作为进一步研究的有希望的起点。

AI安全中心的主任Dan Hendryks称赞OpenAI积极应对控制超人级AI的问题。他强调需要在多年的时间里持续努力来成功应对这一挑战。

包括Collin Burns和Pavel Izmailov在内的Superalignment团队成员对于管理潜在的超智能AI的这一重要初步步骤表示乐观。他们类比了六年级学生向大学生传达自己的目标,尽管在数学知识上存在差异。目标是在较低级别和较高级别的AI模型之间建立有效的沟通和一致性。

Superalignment小组由OpenAI的联合创始人兼首席科学家Ilya Sutskever共同领导。Sutskever在该项目中发挥了关键作用,但他不便置评。值得注意的是,在有关治理危机中,曾经解雇然后重新聘用CEO Sam Altman的情况下,Sutskever在OpenAI的未来似乎并不确定。

利用一个较弱的AI模型来控制一个更强大的模型的概念并不新,此前已经有所探索。然而,教导AI以可靠行为的当前方法的有效性仍然不确定。AI对齐实验引发了对控制系统的可信度的质疑。OpenAI的方法依赖于更先进的AI模型决定遵循较弱模型的哪些指导,这有可能忽视可能阻止不安全行为的信息。为了这类系统的实用性,提供关于对齐的保证的进展将是至关重要的。

OpenAI正在寻求外部贡献来解决控制先进AI的挑战。该公司与投资者兼谷歌前CEO Eric Schmidt合作,宣布为予以提出与强弱监督相关的进展,高级模型的可解释性以及加强模型以防止破坏其限制的提示的研究人员提供1000万美元的资助。OpenAI还将于明年举办一个超对齐会议,促进合作并推动该领域的进一步研究。

UC Berkeley的AI安全专家Stuart Russell承认,使用一个较弱的AI模型指导一个更有能力的模型的方法已经有一段时间了。然而,他对教导AI以可靠行为的当前方法表示怀疑。控制未来AI技术的挑战引起了广泛关注,尤其是随着ChatGPT的发布,受到Sutskever和Geoffrey Hinton等有影响力的人物对AI接近人类水平表现的快速接近的担忧。

总之,OpenAI的Superalignment项目代表了管理先进AI系统的前所未有的力量的重要一步。通过他们的研究和实验,OpenAI旨在建立起低级别和高级别AI模型之间的有效沟通和控制方法。虽然存在挑战和不确定性,但OpenAI致力于解决这个问题,并积极寻求与外部研究人员的合作。AI控制的未来取决于对齐的信任、一致性和持续的努力。

Q&A:

问:OpenAI的超调项目是什么? OpenAI的超调项目着眼于管理和控制逐渐接近的高智能AI模型。该项目旨在建立低智能和高智能模型之间的有效沟通和控制机制。

问:OpenAI计划如何控制未来的超级智能AI? OpenAI目前正在尝试方法,使较差的AI模型能够引导更先进的模型行为,而不会降低其智能。这种控制机制是进一步研究的起点,旨在防止无控制的超级智能AI带来的负面后果。

问:为什么控制超级智能AI很重要? AI能力的不断增强,如果不加以控制,会带来重大风险。无控制的超级智能AI可能产生意外后果,可能导致有害的行动或行为。因此,发展管理和控制这些强大AI系统的方法至关重要。

问:较弱的AI模型如何引导更强的AI模型? OpenAI的研究涉及找到使较差的AI模型能够为其更先进的同类提供指导的方法。通过利用算法调整和训练技术,OpenAI旨在建立机制,使较弱的模型能够影响更强的模型的行为,同时保持其优越的性能。

问:OpenAI在控制AI对齐方面面临哪些挑战? AI对齐的主要挑战之一是确定较差的AI模型的引导在多大程度上应该被更强的AI模型遵循。在找到合适的平衡点方面可能会很困难,因为有忽视可能防止更强模型行为不安全的信息的风险。实现可信性和对齐性是一个持续的挑战。

问:外部研究人员如何为OpenAI的努力做出贡献? OpenAI宣布与Eric Schmidt合作,向外部研究人员提供1000万美元的资助。他们希望在弱至强监督、高级模型的可解释性以及增强模型抵御旨在打破其限制的启发式的方面取得进展。这种合作旨在促进研究,并为控制先进AI系统生成创新解决方案。

问:OpenAI超对齐会议的意义是什么? OpenAI计划举办一个专门的超对齐会议,汇集该领域的研究人员和专家。这个会议将提供一个平台,共享知识,讨论挑战并促进合作。OpenAI旨在通过这种合作努力加速控制强大AI系统的进展。

问:在AI接近人类水平的性能时,控制AI存在哪些问题? AI社区内的知名人士,如Ilya Sutskever和Geoffrey Hinton,对在AI达到人类水平能力时控制AI表达了担忧。AI技术的快速发展催生了有效的控制机制的需求,以防止AI系统产生意外后果或不安全行为。

问:OpenAI的超调项目的未来前景如何? OpenAI的超调项目体现了该公司解决控制超级智能AI的决心。通过持续的研究、与外部研究人员的合作以及专项资金,OpenAI旨在在管理和控制超越人类智能的AI系统方面取得重大进展。项目的成功将需要持续的努力和AI社区的密切合作。

参考资料:

  1. 又一位苹果设计师加入Jony Ive在OpenAI的硬件工作
  2. OpenAI最近的治理危机
  3. 抢购亚马逊Fire TV Stick 4K只需44.99美元,享受假期观看您最喜爱的节目
  4. 威胁退出
  5. 《纽约时报》起诉OpenAI和微软侵犯版权
  6. Google Pixel平板电脑评论:我曾经用过的最糟糕的Pixel – Digital Trends
  7. 对不起,AI – 英国最高法院裁定人类创造东西
  8. 对控制AI的担忧增加
  9. ChatGPT
  10. 深度神经网络
  11. 接近人类水平

将这段HTML代码翻译成中文(结果中保留HTML代码,并保持标签中src属性的原始信息不变):

别错过令人着迷的人工智能世界!与朋友分享本文,时刻了解最新的技术进展。 😄💻🚀