人工智能词汇表:ChatGPT用户都应该了解的基本术语

AI Glossary Basic Terminology Every ChatGPT User Should Know

你对人工智能的第一次了解可能是来自OpenAI的AI聊天机器人ChatGPT,它有着惊人的能力回答任何问题。从写诗、写简历到合成食谱,ChatGPT的功能被比作了“类固醇版”的自动补全。

但是,AI聊天机器人只是人工智能领域的一部分。当然,让ChatGPT帮助你做作业,或者让Midjourney根据原产国创建令人着迷的机甲图像是很酷的,但它的潜力可能会彻底改变经济。根据麦肯锡全球研究所的数据,这个潜力每年对全球经济价值可达4.4万亿美元,所以你应该预计会听到越来越多关于人工智能的消息。

随着人们对与人工智能交织在一起的世界越来越习以为常,新的术语随处可见。所以无论你是想在酒会上显得聪明,还是在面试中给人留下深刻印象,以下是一些你应该了解的重要的人工智能术语。

这个词汇表将持续更新。

人工通用智能,或AGI:这个概念暗示了比我们今天所知的更先进的人工智能版本,它可以比人类更好地执行任务,同时教授和推进自身的能力。

人工智能伦理:通过确定AI系统如何收集数据或处理偏见等手段,旨在防止人工智能对人类造成伤害的原则。

人工智能安全:一个跨学科领域,关注人工智能的长期影响以及它如何突然进化为对人类具有敌意的超级智能。

算法:一系列指令,允许计算机程序以特定的方式学习和分析数据,例如识别模式,然后从中学习并完成任务。

调整:调整AI以更好地产生期望的结果。这可以指任何事情,从调节内容到保持与人类的积极互动。

拟人化:当人类倾向于赋予非人类物体人类特征的时候。在人工智能中,这可能包括相信聊天机器人比它实际上更像人类和更有意识,比如相信它快乐、悲伤,甚至是有感知能力。

人工智能,或AI:利用技术模拟人类智能,无论是在计算机程序还是机器人中。这是计算机科学领域的一个旨在构建能够执行人类任务的系统的领域。

偏见:涉及到大型语言模型时,由训练数据导致的错误。这可能导致根据刻板印象错误地归因于某些种族或群体的某些特征。

聊天机器人:通过文本与人类进行交流的程序,模拟人类语言。

ChatGPT:由OpenAI开发的AI聊天机器人,使用大型语言模型技术。

认知计算:人工智能的另一个术语。

数据增强:重新混合现有数据或添加更多样化的数据以训练AI。

深度学习:一种人工智能方法,也是机器学习的一个子领域,它使用多个参数来识别图片、声音和文本中的复杂模式。这个过程受到人脑的启发,并使用人工神经网络来创建模式。

扩散:一种机器学习方法,它获取现有的数据,比如一张照片,并添加随机噪声。扩散模型训练网络以重新设计或恢复该照片。

新兴行为:当一个AI模型展示出意想不到的能力时。

端到端学习,或E2E:一种深度学习过程,模型被指示从开始到结束执行任务。它不是按顺序训练完成任务,而是从输入中学习并一次性解决问题。

伦理考虑:对人工智能的伦理影响以及与隐私、数据使用、公平性、误用和其他安全问题相关的问题的意识。

Foom:也称为快速起飞或硬起飞。这个概念是,如果有人建立了一个AGI,拯救人类可能已经太迟了。

生成对抗网络,或GANs:由两个神经网络组成的生成式人工智能模型:一个生成器和一个判别器。生成器创建新内容,判别器检查其是否真实。

生成式人工智能:一种使用人工智能来创建文本、视频、计算机代码或图像的内容生成技术。人工智能被输入大量的训练数据,找到模式以生成自己的新颖响应,有时可能与源材料类似。

Google Bard:谷歌的一种AI聊天机器人,功能类似于ChatGPT,但可以从当前网络获取信息,而ChatGPT仅限于2021年之前的数据,并且没有连接到互联网。

监控措施:对AI模型设置的政策和限制,以确保数据得到负责任的处理,模型不会产生令人不安的内容。

幻象:AI产生的错误响应。可能包括生成式人工智能产生的答案是错误的,但表现得自信而正确。其中的原因尚不完全清楚。例如,当向AI聊天机器人询问“列奥纳多·达·芬奇什么时候画了《蒙娜丽莎》?”时,它可能会以错误的说法回答说“列奥纳多·达·芬奇在1815年画了《蒙娜丽莎》”,而实际上是在300年之前。

大型语言模型,或LLM:一种通过大量文本数据进行训练的人工智能模型,用于理解语言并以类似人类语言的方式生成新颖内容。

机器学习,或ML:AI中的一个组件,使计算机能够在没有明确编程的情况下学习和提供更好的预测结果。可以与训练集结合使用以生成新内容。

微软必应:微软的搜索引擎,现在可以使用ChatGPT的技术提供基于人工智能的搜索结果。与Google Bard类似,它与互联网连接。

多模态人工智能:一种可以处理多种类型输入的人工智能,包括文本、图像、视频和语音。

自然语言处理:人工智能的一个分支,使用机器学习和深度学习使计算机具备理解人类语言的能力,通常使用学习算法、统计模型和语言规则。

神经网络:一种类似于人脑结构的计算模型,用于识别数据中的模式。由相互连接的节点或神经元组成,可以识别模式并随时间学习。

过度拟合:机器学习中的错误,使其过于贴近训练数据,可能只能识别训练数据中的特定示例,而无法识别新数据。

参数:给LLMs提供结构和行为的数值,使其能够进行预测。

提示链:AI利用以前的交互信息来影响未来的回答的能力。

随机鹦鹉:对LLMs的类比,说明该软件无论输出听起来多么令人信服,都没有对语言背后的含义或世界的更大理解。这个短语指的是鹦鹉可以模仿人类的语言,但并不理解其中的含义。

风格转换:将一张图像的风格适应到另一张图像的能力,使得AI能够解释一张图像的视觉属性并应用到另一张图像上。例如,将伦勃朗的自画像的风格重新创作成毕加索的风格。

温度:设置参数以控制语言模型输出的随机性程度。较高的温度意味着模型更加冒险。

文本到图像生成:根据文本描述创建图像。

训练数据:用于帮助AI模型学习的数据集,包括文本、图像、代码或数据。

Transformer模型:一种神经网络架构和深度学习模型,通过跟踪数据中的关系(如句子或图像的部分)来学习上下文。因此,它不是逐字分析句子,而是可以查看整个句子并理解上下文。

图灵测试:以著名的数学家和计算机科学家艾伦·图灵命名,测试一台机器是否能够像人类一样表现。如果人类无法将机器的回答与另一个人类区分开,那么机器通过了测试。

弱人工智能,也称为狭义人工智能:专注于特定任务且无法超越其技能范围的人工智能。大多数当前的人工智能都属于弱人工智能。

零样本学习:在没有提供必要的训练数据的情况下,模型必须完成一个任务的测试。例如,只在训练过虎的情况下识别狮子。