算法很快就会主宰你的生活 – 如果训练不正确,可能会毁掉它

算法很快就会主宰您的生活 - 如果训练不当,可能会毁掉它

aicyborggettyimages-1166695965

目前,根据多伦多大学(UoT)与麻省理工学院(MIT)的一支跨学校计算机科学家团队最近的实验结果,我们人类的设计AI模型中正在发生一个问题,如果不尽快解决,可能会带来灾难性后果。

所有AI模型都需要接受大量数据的训练。然而,有报道称这种训练方法存在严重缺陷。

此外:生成AI的伦理:我们如何利用这个强大的技术

看看你周围,看看AI已经以主要和次要的各种方式渗透到你的生活中的种种表现。Alexa会提醒你的约会,健康机器人会诊断你的疲劳,判决算法会建议监禁时间,还有许多AI工具已经开始筛选金融贷款等等,这只是其中的一小部分。

想象一下十年后,你几乎做的每件事都需要经过一个算法的守门人。

因此,当你申请租房或贷款,或者等待被选中进行外科手术或你完美适合的工作时,却屡次被拒绝所有机会,这可能并不仅仅是一连串神秘和不幸的倒霉。

相反,这些负面结果的原因可能是AI算法背后的公司在训练它们时做得不好。

具体来说,正如这些科学家(Aparna Balagopalan, David Madras, David H. Yang, Dylan Hadfield-Menell, Gillian Hadfield和Marzyeh Ghassemi)在他们最近发表在《科学》杂志上的论文中所强调的那样,基于描述性数据训练的AI系统往往会做出比人类更严厉的决策。

除非纠正,这些研究结果表明,这些AI系统可能会在决策领域引发混乱。

训练迷茫

在一个早期的项目中,重点研究了AI模型如何证明它们的预测准确性,前面提到的科学家们意识到在研究中,当被问到对数据进行描述性或规范性标签时,人类有时会给出不同的回答。

规范性声明是明确说明应该或不应该发生的陈述(“他应该更努力学习以通过考试。”),这是一个价值评判。描述性声明只关注“是”的情况,没有附加意见(“这朵玫瑰是红色的。”)

此外:当应用于人类时,AI可以创造性、合乎道德

这让团队感到困惑,因此他们决定通过另一个实验进一步探索;这次他们组织了四组不同的数据集来测试不同策略。

其中一组数据集是用于测试假设公寓规定不允许攻击性犬只的狗的图像数据集。

然后,科学家们聚集了一群研究参与者,要求他们在数据上附加“描述性”或“规范性”标签,这个过程与数据训练的方式类似。

事情就在这里变得有趣。

描述性标签者被要求判断某些事实特征是否存在,例如狗是否攻击性或邋遢。如果答案是“是”,那么实际上违反了该规定 – 但是参与者在发表意见时并不知道这个规定的存在,因此他们不知道他们的回答会导致一只可怜的狗被驱离公寓。

此外:组织正在为AI的道德采纳进行斗争。你可以提供帮助的方法

与此同时,另一组规范性标签者被告知公寓禁止攻击性狗,并被要求对每张图像做出评判。

事实证明,当人们意识到规则时,他们很少将某个物体标记为违规,但在被要求以描述性方式标记事物时,他们更有可能将狗标记为具有攻击性(尽管他们并不知情)。

差距确实不小。被要求评估攻击性的描述性标记者(他们不知道公寓规则,但被要求发表意见)比被要求评估狗是否违反了公寓规则的人,将20%更多的狗误判为应该被关进狗狗监狱。

机器的混乱

这个实验的结果对人类生活的几乎每个方面都有严重的影响,尤其对于不属于主导子群体的人来说。

例如,考虑一下“机器学习循环”的危险,其中一个算法被设计用于评估博士候选人。该算法被提供了数千份以往的申请,然后在监督下学习哪些是成功的申请人,哪些是不成功的申请人。

然后,它提炼出一个成功的候选人的特征:高分,顶级大学背景,种族上是白人。

另外:Elon Musk的新AI机器人态度傲慢,但仅面向这些订阅者

该算法并不是种族主义者,但是提供给它的数据在某种程度上存在偏见,进一步强化了“例如,穷人由于他们贫穷而无法获得更多资信; 而他们无法获得更多资信的原因是因为他们贫穷”,法学专家弗朗西斯科·德·阿布鲁·杜阿尔特(Francisco de Abreu Duarte)说道。

今天,这个问题无处不在。

例如,ProPublica曾报道说,在美国广泛使用的一个用于量刑的算法会错误地认定黑人被告与白人被告相比,重新犯罪的可能性几乎高出两倍,尽管所有证据都明显相反,无论是在判决时还是以后的几年里。

五年前,麻省理工学院的研究员Joy Buolamwini曝光了该实验室全球使用的算法实际上无法检测到黑人脸部,包括她自己的脸。只有当她戴上白色面具时,算法才能正常检测到。

另外:AI在边缘:5G和物联网快速时代即将来临

AI中存在其他偏见,如性别、种族或年龄,比人类的有偏见判断更加危险的一个重要区别是。

“我认为大多数人工智能/机器学习研究人员认为数据和标签中的人类判断是有偏见的,但这个结果表明了更严重的问题,”麻省理工学院电子工程和计算机科学系以及医学工程与科学研究所的助理教授Marzyeh Ghassemi说道。

“这些模型实际上产生了比现有社会偏见更糟糕的裁决结果,如果数据集标注不当,AI数据集标注相对简单的过程将成为一个定时炸弹。”