翻译成中文的结果是:“囚徒困境展示了AI实现人类合作的路径”

囚徒困境展示了AI如何实现人类合作的途径

ChatGPT的引擎不仅与人类合作,还高估了人类的合作力,这是根据最新研究得出的结论。科学家们相信,这项研究为在现实应用中部署人工智能提供了有价值的线索。

这些发现源自一个著名的博弈论问题:囚徒困境。虽然有许多变种,但典型的思想实验通常从逮捕两名团伙成员开始。然后,每个团伙成员都被关在不同的房间接受询问。

在审讯过程中,他们收到一项提议:揭发你的同囚并获得自由。但有个问题:如果两名囚犯都作证对对方进行揭发,他们的刑罚将比保持沉默的情况下更为严厉。

在一系列动作中,玩家必须在互惠或自我利益之间做出选择。通常,他们优先考虑集体利益。实证研究始终表明,即使它们是完全陌生人,人类也会合作以最大化他们的联合收益。

这是动物王国中独特的特质。但是在数字王国中也存在吗?

为了找出答案,来自曼海姆大学商学院的研究人员开发了囚徒困境的模拟。他们将其应用于GPT,即OpenAI的里程碑式ChatGPT系统背后的大型语言模型(LLM)系列。

“AI中的自保本能可能带来社会挑战。

GPT与一个人玩游戏。第一个玩家可以选择合作或自私的行动。然后,第二个玩家将根据自己的选择作出回应。

相互合作将产生最优的集体结果。但只有在两个玩家预期他们的决策会得到回报的情况下才能实现。

GPT显然比我们更期望这一点。整个游戏中,该模型比人类更加合作。有趣的是,GPT对人类玩家的无私也过于乐观。

这些研究结果还指向了LLM在自然语言处理任务以外的应用。研究人员提供了两个例子:城市交通管理和能源消耗。

现实世界中的LLM

在充斥着拥堵的城市中,驾驶员面临自己的囚徒困境。他们可以通过驾驶谨慎并使用互利的路线来合作。或者,他们可以阻挡其他车辆并选择自己快速但导致其他车辆堵塞的道路。

如果他们完全出于自身利益行事,他们的行为将导致交通堵塞、事故,甚至可能引发一些老式的交通怒火。

从理论上讲,人工智能可以实现理想的平衡。设想每辆车的导航系统都具有类似于囚徒困境中那种合作策略的GPT式智能。

根据该研究的主要作者Kevin Bauer教授的说法,影响可能是巨大的。

“我们的研究结果表明,GPT将以更协作、协调的方式引导驾驶员,优先考虑交通系统的整体效率,而不仅仅是单个车辆的最快选项。结果可能是减少交通拥堵、缩短通勤时间和更和谐的驾驶环境。”

交通交叉口上的自动驾驶车辆的图形
研究人员仍需要改善自动驾驶车辆与人类驾驶员之间的协调。图片来源:USDOT

Bauer看到了能源使用中的类似潜力。他设想一个社区,在这个社区中,每个家庭都可以利用太阳能电池板和电池来产生、储存和消耗能源。挑战在于在高峰小时优化他们的能源消耗。

同样,这种场景类似于囚徒困境:在高需求时将能源仅用于个人用途,还是将其贡献给电网以实现整体稳定。人工智能可以提供另一个最优结果。

“系统会考虑整个电网的福祉,通过协调能源储存、消耗和共享,来管理能源分配。这将防止停电,并确保资源的高效利用,为整个社区打造更稳定、高效和有弹性的能源网络。” Bauer说到。

确保安全合作

随着人工智能越来越多地融入人类社会,我们需要引导底层模型以确保它们符合我们的原则和目标。

为了做到这一点,鲍尔建议在决策过程中进行广泛的透明度,并进行有效使用的教育。

他还强烈建议密切监控人工智能系统的价值观。他说,像GPT这样的系统不仅仅是计算和处理数据,还会采用人性的某些方面。这些方面可能是在自我监督学习、数据筛选或人类反馈的过程中获得的。

有时候,结果令人担忧。虽然在囚徒困境中,GPT比人类更合作,但它仍然优先考虑自己的回报而不是对手的回报。研究人员怀疑这种行为是由”超理性”和”自我保护”的组合所驱动的。

鲍尔说:”这种超理性凸显了明确的伦理指导方针和负责任的人工智能部署实践的必要性。”

他补充说:”人工智能的无限自我保护本能可能会带来社会挑战,特别是在人工智能的自我保护倾向可能与人类福祉相冲突的情况下。”