为什么DeepMind的AI可视化完全无用

为何DeepMind AI可视化无用

引人注目,但是意味着什么?DeepMind的这些图片,如此由Tim West开发的这张图片,引人注目,但却无法解释人工智能程序中实际发生的事情。这个图片显然代表了“大型语言模型(如ChatGPT)的优点和缺点”,但是具体是什么意思呢?

“在统计图形中的卓越意味着用清晰、精确和高效的方式传达复杂的思想。” —— Edward R Tufte,《定量信息的视觉展示》。

通常,可视化是指帮助人们理解无法直接观察到的事物。Google的DeepMind部门最近发布了由各种视觉艺术家创作的人工智能可视化作品。尽管意图可能是好的,但结果却是一场灾难。

该公司表示:“可视化AI邀请世界各地的艺术家以对话Google DeepMind的科学家、工程师和伦理学家为灵感,创作更多样化和易于理解的AI呈现。”它将这些“多样化和易于理解”的图像与通常包含发光的大脑或机器人等元素的典型AI图像进行对比。

此外:生成式人工智能:学者在《科学》杂志上称其为“艺术家”

诚然,对于人工智能的典型库存照片图像,如发光的字母“A”和“I”,并不能帮助任何人理解机器学习形式的神秘艺术和科学,这是人工智能的主导形式。

著名的可视化专家Edward R. Tufte在他的书《定量信息的视觉展示》中写道,成功的可视化展示应该能够“引导观众思考实质问题,而不是方法论、图形设计、图形制作技术或其他事物。”

此外:谷歌更新Vector AI,让企业能够使用自己的数据训练GenAI

DeepMind的图片主要只涉及图形设计之类的事物。事实上,它们是图形设计的过载。

Novoto Studio的一张图片显示了一些看起来像井字糖的东西接近某种计算机界面。在深度学习或任何其他形式的人工智能中都没有包括井字糖。

有人想要井字糖吗?DeepMind的这些图片,如此由Novoto Studio开发的这张图片,引人注目,但却无法解释人工智能程序中实际发生的事情。

与井字糖相伴的文字同样神秘。“一个有很多小物体的电子设备,”它写道。“一个艺术家对人工智能(AI)的插图。这张图片通过3D可视化展示了人工智能对社会的潜力。”不管这意味着什么,它可能与井字糖没有太大关系。

此外:AI的多维视图即将到来,它将具有强大的能力

另一张图片是由Wes Cockx创作的,据说是一种“由木材和金属制成的金属结构”,旨在描绘“大型语言模型中使用的预测方法。”

这是一个令人着迷的虚构结构,但是它在预测方面的作用并不清楚。陪伴的视频也没有太大帮助,它展示了一个看起来像装置的东西,也许是某种巨大的算盘,但那东西在做什么呢?

其中一些图片如此奇幻,似乎与任何事物都没有关联。XK Studio的一张图片描绘了一个看起来像一块凝胶物体的立方体,似乎正在脱落其他种类的类细胞凝胶物体,它确实相当吸引人,但与人工智能或其他任何事物无关。不得不猜测的话,人们可能会认为它是对凝胶形成过程的渲染。

这个有胶质物的视频展示了很多物质的形成,而这些物质又形成了其他的物质。同样,谁知道这些物质是如何形成的,以及为什么形成呢?

另外:什么是生成式人工智能,为什么它如此受欢迎?以下是你需要了解的一切

附带的文字解释称,这个图像和视频“探索了人类未来如何与人工通用智能(AGI)进行创造性合作,以及它如何提供新的视角,加速进程并引领新的领域。”除了没有解释什么是AGI,或者可能是什么,这段文字太模糊了,没有什么用处。这是一个例子,一个图片,甚至一千个词,都可能对任何人都没有帮助。

最接近的一个图像是另一个由Novoto Studio制作的,它显示了一个分支配置。文字将其描述为“深度学习中使用的灵感神经网络。”

它最接近的原因是人工神经网络实际上可以被认为是一种分支网络,其中涉及到许多元素的集体活动。

另外:每个人都想要负责任的人工智能,但很少有人在做些什么

事实上,这些插图与主题无关是很奇怪的,因为在人工智能领域有着丰富的插图传统。康奈尔大学航空实验室的弗兰克·罗森布拉特(Frank Rosenblatt)的原始神经网络研究工作《感知器》开创了60年的人工神经网络建设尝试。罗森布拉特在他的插图中描述了一个由人工神经元组成的网络。它在其简洁之美中很美观。

可以在瞬间理解一些关于正在发生的事情的东西,因为连接网络贯穿我们的生活。地铁站地图显示了连接网络。Facebook的社交图是一组连接的实体。任何事物的连接图都是强大的,比Novoto Studio和其他人奇怪的渲染图更强大。

人们甚至可以将罗森布拉特的原始技术图转化为奇幻的图像。这样的图像可能不具体,但它们可以捕捉到一些输入和输出之间产生连接的系统的感觉:

神经网络将输入(左侧的圆圈)转化为输出(右侧)。发生这种情况的方式是权重的转化(中心),我们经常将其与数据本身中的模式混淆。

DeepMind的图像的根本问题在于艺术家们似乎对人工智能了解甚少,因此,他们的任务主要是根据他们对人工智能的想象,给出自己不了解的、印象主义的渲染。如果希望公众了解到实际上人工智能正在发生什么,这并不特别有帮助。

另外:人工智能走向好莱坞:在叙述中应对新兴技术的双刃剑

这太糟糕了,因为机器学习领域有很多人对技术有很好的理解,同时也能产生可视化效果。例如,谷歌的People+AI研究小组已经制作了一些关于这项技术各个方面的精美可视化效果。

谷歌People+AI团队对机器学习中准确性和隐私之间的权衡的插图。

该小组的前成员、哈佛大学教授马丁·瓦滕伯格(Martin Wattenberg)是一个真正擅长表达困难概念的学者。他因为为消费金融出版物SmartMoney开发的“市场地图”而闻名,该出版物在2013年合并到MarketWatch。

在这个领域,有些人理解人工智能,并且可以合理地传达其中的一些内容。也有一些人在视觉叙事和解释方面表现出色。DeepMind似乎选择了那些对这两者都不太了解的设计工作室,而错过了这些人。