人工智能和你:聊天机器人互相对话,AI助力外科医生准确定位脑瘤

与人工智能互动:医疗聊天机器人帮助神经外科医生精确定位脑瘤

休息一段时间后,我本周回来后发现我的收件箱里充斥着关于人工智能工具、问题、失误和冒险的新闻。而引起我注意的是,有多少投资用来让人工智能聊天机器人假装成别人。

就以Meta为例,首席执行官马克·扎克伯格在Meta平台上扩大了AI人物的阵容,使这家科技巨头的超过30亿用户可以与他们互动,包括脱口秀明星Snoop Dogg、名人 Kylie Jenner、前四分卫Tom Brady、网球明星Naomi Osaka、其他名人Paris Hilton和著名英国小说家Jane Austen等。

该公司高管对《纽约时报》表示:“这些角色可以让人们娱乐、学到东西、聊烹饪食谱或仅仅消磨时间 – 这都发生在与家人和朋友建立联系的情境之中。” 扎克伯格说:“人们不会想与一个超级智能的AI互动,人们希望与不同的AI互动。”

但是,让我们不要假装假朋友只是为了帮助你与家人和朋友建立联系。正如我们所知道的,这一切都是关于钱,现在科技公司正在进行一场领土争夺战,Meta与其他人工智能巨头,包括OpenAI的ChatGPT、Microsoft的Bing和Google的Bard,展开了竞争。《纽约时报》也提到了这一点:“对于Meta来说,其新的人工智能产品的广泛接受可能会大幅增加其许多应用的使用率,而这些应用大多依赖广告获利。在Meta的应用中花费更多时间意味着向其用户展示更多广告。”

可以肯定的是,Meta并不是第一个想到创建个性或角色来让人机交互聊天机器人变得有人情味的公司(参见60年代诞生的ELIZA)。而且这种方法似乎取得了成功。

两年前成立的Character.ai让你可以与基于名人(如Taylor Swift和Albert Einstein)和虚构角色(如任天堂的超级马里奥)的聊天机器人互动,它是访问量最高的人工智能网站之一,据Bloomberg报道,该公司正在寻求融资,估值将达到50至60亿美元。本周,Character.ai还推出了一个新功能,名为Character Group Chat,让你和朋友可以同时与多个AI角色聊天(现在是你的机会,把Swift和马里奥加入你的群聊中)。

但是,如果有名人参与其中并为他们的AI形象获得报酬,用名人来推销人工智能才有趣。本月早些时候,汤姆·汉克斯(Tom Hanks)警告人们注意一个未经他批准使用他形象的牙科广告。汉克斯在Instagram上告诉他的950万粉丝:“小心!!有一个视频在宣传一个牙科计划,用我的AI版本。我与此无关。”

汉克斯在四月的播客中预测了人工智能带来的危害。他说:“目前,如果我愿意的话,我可以联合起来,推出一系列以我为主角的电影,从现在到永远,我都会保持32岁的年龄。现在任何人都可以通过人工智能或深度伪造技术重现自己的任何年龄……我可以告诉你,各个行业协会、各大机构和所有法律公司都在讨论,我们的面容和声音的法律后果以及其他所有人的面容和声音的法律后果,因为它们属于我们的知识产权。”

当然,他关于所有那些讨论的观点是正确的。美国作家协会刚刚与好莱坞结束了关于电影和电视中人工智能使用的条款的谈判,结束了作家罢工。但演员,由SAG-AFTRA代表,依然在进行艰苦的斗争,其中一个争议点就是使用“数字复制品”。

以下是值得关注的其他人工智能动态。

ChatGPT现在可以听和说话 —— 收费

OpenAI正在推出ChatGPT的新语音和图像功能,让你“进行语音对话或向ChatGPT展示你谈论的内容”。这些新功能对于付费使用该聊天机器人的用户可用(ChatGPT Plus每月收费20美元)。

该公司表示:“在旅行时拍摄一个地标的照片,并对其有关趣味的问题进行即时讨论。回家后,拍摄冰箱和食品储藏室的照片,找出今晚吃什么(并通过逐步配方提问跟进问题)。晚餐后,通过拍照帮助孩子解决数学问题,圈出问题,与您两个人分享提示。”

那么和ChatGPT交谈是什么感觉呢?《华尔街日报》的评论员乔安娜·斯特恩将其描述为类似于电影《她》中的情节,乔夫·菲尼克斯爱上了名叫Samantha的人工智能操作系统(由斯嘉丽·约翰逊配音)。

“自然的声音,富有对话的口吻,优美的回答有时几乎和人类无法区分,”斯特恩写道。“但您肯定还是在和机器交谈。回应时间……可能极其缓慢,并且可能断开连接——重新启动应用程序有所帮助。几次它突然中断了对话(我以为只有粗鲁的人会这样做!)”

一个粗鲁的人工智能?也许聊天机器人们终究变得更像人类了。

再见,人类焦点小组;你好,合成人类?

说到更像人类的人工智能,一家名为Fantasy的公司为包括福特、谷歌、LG和Spotify在内的客户创建“合成人类”,帮助他们“了解受众、思考产品概念,甚至生成新的创意”,据ENBLE报道。

“Fantasy使用像OpenAI的ChatGPT和Google的Bard那样支持聊天机器人的机器学习技术来创建其合成人类,”ENBLE报道称。“该公司为每个代理商提供从真实人类的民族志研究中获得的几十个特征,将其输入OpenAI的GPT和Anthropic的Claude等商业大型语言模型。它的代理人还可以设定对现有产品线或业务有所了解,以便能够就客户的产品进行交谈。”

人类并没有完全被排除在外。Fantasy告诉ENBLE,对于石油和天然气公司BP来说,它创建了由真人和合成人类组成的焦点小组,并要求他们讨论一个主题或产品理念。结果呢?“相比之下,人类可能会对回答问题感到疲倦,或者不想以那么多方式回答问题,而合成人类则可以不断进行,”BP全球设计总监罗杰·罗哈特基告诉该媒体。

因此,最终目标可能只是让机器人们彼此交谈。但有一个问题:训练AI角色并非易事。ENBLE采访了参与创建名为Smallville的聊天机器人社区的斯坦福大学副教授迈克尔·伯恩斯坦,并将他的话总结为:

“伯恩斯坦表示,任何希望使用人工智能来模拟真实人类的人都应该不忘质疑语言模型实际上如何反映真实行为。通过这种方式生成的角色不像真人那样复杂或聪明,并且可能比从真实人群中采样的信息更加刻板和缺乏多样性。如何使模型更真实地反映现实仍然是一个‘尚未解决的研究问题’。”

伦理和信任的重要性

德勤为2023年“技术伦理与信任状况”更新了其报告,并提供了这份长达53页的报告的下载链接。如果只是想提醒我们人类AI工具和系统的发展、部署和使用完全取决于我们自己,那就值得一读。

德勤的TL;DR?组织应该“为新兴技术制定可信赖和道德的原则”,并与“其他企业、政府机构和行业领导者合作,共同制定新兴技术的统一、道德健全的规章制度。”

如果他们不这样做呢?德勤列举了道德失误带来的损害,包括声誉损害、人员伤害和监管处罚。研究人员还发现,财务损失和员工不满意度是相互关联的。一项研究发现,涉及道德违规的公司员工在随后的十年里平均损失了50%的累积收入,而其他公司的员工则没有。

研究人员还发现,56%的专业人士不确定他们的公司是否有人工智能使用的道德准则,根据ENBLE姊妹站点的调查结果汇总。

在脑部手术中的边缘工作

移除脑部肿瘤的挑战之一是确定医生需要移除肿瘤周围多少范围以确保他们切除了所有不良物质。这是非常棘手的事情,因为他们需要在“最大程度地切除并最小化神经损伤之间取得微妙的平衡”,根据一项新研究。

这份报告本周发表在《自然》杂志上,介绍了一项关于肿瘤检测的有趣进展,得益于人工智能神经网络。荷兰的科学家开发了一个名为Sturgeon的深度学习系统,旨在通过在手术过程中帮助获得肿瘤的详细视图来帮助医生找到这种微妙的平衡。

您可以阅读《自然》报告,但我将与您分享《纽约时报》科学作家本杰明·穆勒提供的简明英文摘要:“该方法涉及计算机扫描一段肿瘤的DNA,并找到某些可以提供详细诊断脑部肿瘤类型甚至亚型的化学修饰。这种诊断在长达数小时的手术的早期阶段生成,可以帮助医生决定进行多激进的手术。”

在以前的脑部癌症手术的冰冻肿瘤样本上进行的测试中,Sturgeon在开始DNA测序后的40分钟内准确诊断了50例中的45例,时报称。然后它还经过了25次现场脑部手术的测试,其中大部分是在儿童身上进行的,并给出了18个正确的诊断结果。

时报指出,一些脑部肿瘤很难诊断,并且并非所有癌症都可以通过新的人工智能方法分析的化学修饰来诊断。然而,随着研究的继续,利用新的人工智能技术可能实现的可能性是令人鼓舞的。

本周的人工智能词汇:人工智能

考虑到上面关于如何使用人工智能创建虚构版本的真实人物的讨论,我选择本周的词汇是“拟人化”,即将人类的特质赋予非人类事物。但我在《AI and You》8月19日的版面中已经涉及了这个话题。

所以,我提供欧洲理事会对“人工智能”的定义:

一系列科学、理论和技术的集合,其目的是通过机器复制人类的认知能力。目前的发展旨在将复杂任务委托给机器。

然而,一些专家批评人工智能这个术语,他们区分“强人工智能”(能够完全独立地将非常不同的专门问题置于上下文中)和“弱人工智能”或“中等人工智能”(在其培训领域表现出色)。根据一些专家的说法,“强人工智能”需要在基础研究方面取得进展,能够对整体世界进行建模,而不仅仅是对现有系统性能的改进。

为了比较,这是美国国务院引用2020年国家人工智能法案的定义:

“人工智能”一词指的是一种基于机器的系统,能够为给定的人定义的目标,对真实或虚拟环境产生预测、推荐或决策。

编辑注:ENBLE正在使用人工智能引擎帮助创作一些故事。了解更多,请看这篇文章。