自动驾驶汽车在检测儿童行人方面表现更差,研究发现

Study finds autonomous cars perform worse in detecting child pedestrians.

人工智能在偏见方面有着臭名昭著的历史,从人脸识别系统错误地识别黑人到聊天机器人崇拜希特勒。在某些情况下,结果可能是致命的。

一个案例就在本周曝光了。根据新的研究,用于自动驾驶研究的行人检测系统存在严重的年龄和种族偏见。

这项研究给无人驾驶汽车的推广增加了另一个障碍。它还揭示了道路安全可能出现的令人担忧的潜在问题。

这些发现来源于对八个流行的行人检测系统进行的系统性回顾。伦敦大学国王学院(King’s College London)的研究人员对超过8,000张行人图像进行了软件测试。

他们发现,对于成年人来说,平均检测准确率几乎比儿童高出20%。对于浅肤色的行人,系统的准确率也比对于深肤色的行人高出7.5%。

这些差异源于AI偏见的一个常见原因:不具有代表性的训练数据。

“在工程和数据科学领域有句老话,‘垃圾进,垃圾出’。AI系统需要用大量的训练数据进行训练,而训练数据的不足必然会在AI中体现出来,”伦敦大学国王学院计算机科学讲师张洁博士告诉TNW。

“在这种情况下,用于训练这些行人检测系统的开源图库并不能代表所有行人,而且偏向于浅肤色的成年人。由于训练数据较少,当检测到代表性较少的群体时,AI的准确性会降低。”

在光线条件下还出现了另一个问题。在低对比度和低亮度下,对于儿童和深肤色人群的偏见会加剧。这意味着在夜间驾驶时,这两个群体都面临着更高的风险。

尽管汽车制造商没有公开其行人检测软件的详细信息,但它们通常基于研究中使用的相同开源系统。因此,张洁对他们也存在同样的问题感到有信心。

为了降低风险,他希望在行人检测系统上有更多的透明度和更严格的监管。

“开发者应该从更透明的角度开始,关于他们的检测系统是如何进行训练的,以及它们的性能如何,这样才能客观地进行衡量——不这样做的后果可能是灾难性的,”他说。

“但除此之外,制造商还需要努力确保他们的AI系统公平和具有代表性,这一动力将来自决策者和对AI公平性的更严格监管。”

您可以在此处阅读研究论文。