AI动了手脚:找借口、改动和误导

通过每周的发展汇总,保持对不断变化的人工智能领域的了解

在这篇文章中,我们将讨论AI及其推卸责任游戏,苹果的AI线索,以及Z世代对AI导致失业的接受程度。

除了“狗吃了我的作业”,“我没有看到邮件”和“这只是一个无心之失”之外,现在你还可以加上“AI干的”到人们为了逃避承担某件事情的责任而可能使用的借口列表中。🤷‍♀️

以澳大利亚一家新闻台最近道歉的事件为例,他们播放了一张在Adobe Photoshop中被AI工具编辑过的国会成员的照片,并声称这是一张经过修改的照片,根据《悉尼先驱晨报》的报道。然而,在这位政治家乔治·珀塞尔(Georgie Purcell)在社交媒体上发布原始照片和修改后的照片后,这个道歉和“AI干的”借口才出现。🖼️

Photoshop意外 😱

这家名为9News的新闻台将此称为“图形错误”,将责任归咎于Adobe而不是人为错误。新闻总监休·纳伊隆(Hugh Nailon)表示,“Photoshop的自动化创建了一张与我们原始照片不一致的图像。”然而,Adobe方面驳斥了这一说法,并表示对图像所做的任何更改都需要“人为干预和批准”。最终,新闻台承认确实存在“决定中的人为干预”。

虽然确实存在AI工具可以进行类似自拍滤镜的调整,但这并不能为新闻台未能将图像与原始图像进行核实提供借口。悉尼科技大学的罗布·尼科尔斯教授解释说,如果不加强对AI的编辑控制,使用AI可能会产生重大错误,并补充说AI可以复制现有的偏见。而这些问题往往是有性别偏见的巧合。🚺

🔍 问答

问:AI工具如何复制现有的偏见?

答:AI工具从其训练数据中学习,如果该数据包含偏见,AI就可能会复制并放大这些偏见。例如,如果数据集主要包含穿着暴露的女性图像,那么AI工具在编辑女性图像时可能会学会强调暴露的特征。这可能导致性别偏见和误导。

问:有什么措施可以防止AI持续存在偏见?

答:为了防止AI持续存在偏见,确保训练数据具有多样性、代表性且没有偏见至关重要。此外,制定强有力的编辑控制和准则可以帮助减轻AI工具偏见输出的风险。

归咎于Deepfakes 🎭

政治家对于归咎于AI deepfakes的“谴责的照片,视频和音频”并不陌生,根据《华盛顿邮报》的报道。前总统唐纳德·特朗普甚至驳斥在福克斯新闻台播放的他公开闹笑话的视频广告,声称这些片段是由AI生成的。然而,许多独立观察者在现实生活中目击了这些画面。

这一趋势引发了一个问题,当Deepfakes和AI操纵变得司空见惯时,我们如何区分事实与虚构。加州大学伯克利分校的教授汉尼·法里德(Hany Farid)将其描述为AI创造的“撒谎者红利”。它为那些因言行不端被抓现行提供了一个貌似合理的否认理由,即归咎于AI负责。

是真实还是AI?🤔

随着AI生成的音频、视频和文本的兴起,越来越难区分什么是真实的,什么是由AI创造的。虽然没有一个魔法工具可以立即识别AI生成的内容,但有一些关键事项需要牢记。

根据无党派非营利的新闻素养项目,AI“标志着证据性质的改变”。这意味着我们不应该自动相信新闻中看到和听到的一切。验证来源,与可靠信息核对,以怀疑的态度接触病毒式图片是在AI和错误信息时代中导航的关键步骤。

🔍 问答

问:如何验证病毒式图片或视频的真实性?

答:当遇到病毒式图片或视频时,通过寻找可靠来源来验证其真实性非常重要。进行反向图像搜索,查看图像是否以前使用过或是否与原始来源相匹配。对于无法找到可靠确认的未经验证内容,应该对其持怀疑态度。

问题:AI技术能否创建完全令人信服的假图片和视频?

回答:虽然AI技术在生成逼真的视觉内容方面取得了显著进展,但仍存在一些限制。Deepfake算法可以创建极具说服力的图片和视频,但通常存在一些细微的视觉线索或瑕疵可以帮助识别它们。然而,随着技术的不断发展,越来越难以检测出AI生成的伪造内容,这强调了批判性思维和验证的必要性。

AI在工作中的应用 💼

AI不仅仅是争议和误导的源泉,它还在改变职场。根据波士顿咨询集团最近的一项调查,85%的高管计划在2024年增加对AI和生成AI技术的投资。这些高管期望通过采用这些工具实现生产力提高和成本节约。然而,仍然存在挑战和问题需要解决。

高管们对自己组织在AI采用方面的进展表示不满,突出了缺乏人才、缺乏清晰的路线图以及缺乏负责任使用的整体战略作为成功的障碍。此外,调查还显示,在未来三年中,46%的员工将需要通过生成AI进行提升。然而,只有6%的公司对超过四分之一的员工进行了这些工具的培训。

实施负责任的AI原则并专注于变革管理是成功采用AI的关键方面。虽然AI具有巨大的潜力,但在实施时需要进行深思熟虑和道德考虑。

🔍 问答

问题:公司如何确保负责任的AI采用?

回答:负责任的AI采用涉及几个关键考虑因素。公司应该优先考虑AI系统的透明度和责任性,确保其可解释并受到道德准则的约束。此外,他们应该投资于持续的培训和提升计划,为工作人员准备AI整合所需。定期评估和审核AI系统可以帮助识别和减轻潜在的偏见或意外后果。

问题:工作场所中一些AI应用的例子有哪些?

回答:AI在工作场所以各种方式使用。它可以自动化重复性任务,通过数据分析改进决策,借助聊天机器人提供更好的客户服务,优化供应链,并协助研发工作。像ChatGPT这样的AI工具也被用来支持创造性工作,并协助进行事实查找和研究。

AI的未来:从Deepfake到负责任的使用 🚀

随着AI技术的不断发展,它对社会和职场的影响必将增加。解决关于Deepfake和误导的担忧对于维护媒体的信任和诚信至关重要。在技术进步和负责任使用之间取得平衡对于应对未来的挑战至关重要。

谷歌最近对其Bard会话式AI进行的更新,允许用户通过文本提示生成图片,展示了AI能力持续发展的事实。像苹果这样的公司也在暗示其AI项目,承诺在未来一年中提供令人兴奋的更新。同时,监管努力,比如FCC提出的打击由AI生成的骚扰电话的提案,旨在保护消费者免受恶意使用AI技术的伤害。

通过持续的研究和合作,我们可以利用AI来实现积极的目标,如支持创造力、提高生产力和增强用户体验。OpenAI在有关有害生物武器的研究以及他们对负责任AI实践的承诺中展示了行业在应对AI进展可能带来的风险方面所做的努力。

总之,AI的不断增长需要我们保持警惕,在验证信息、追究组织对AI的使用的责任以及促进负责任的AI采用方面做出努力。通过这样做,我们可以充分发挥AI的潜力,并防范其可能带来的风险。

🔎 参考资料悉尼先驱晨报TechCrunch纽约时报华盛顿邮报商业内幕弗雷斯特研究ENBLE(Lisa Lacy的报告)- FCC提案CNNYouMailOpenAI研究波士顿咨询集团报告ENBLE(Lisa Lacy的报告)- Amazon博客文章纽约时报EduBirdie研究