帮助您适应变化世界的终极人工智能词汇表

超越时代变革的终极人工智能词汇指南

曾经因混淆的AI术语而感到烦恼吗?

在过去的一年中,出现了无数植入了AI的产品和服务,它们提供了各种令人眼花缭乱的功能,常常包裹在难以理解的术语中。

有了这个方便的词汇表,你现在将会知道AI和AGI的区别,当你听到GPT-4被描述为一个使用深度神经网络构建的LLM变压器模型时,你将真正了解ChatGPT “幻觉”的含义。让我们深入了解吧。

代理

在AI的上下文中,代理是一种可以自主执行某种任务的模型或软件程序。代理的例子包括控制温度和照明的智能家居设备,机器人吸尘器和无人驾驶汽车中的传感器,以及像ChatGPT这样学习和回应用户提示的聊天机器人。执行复杂任务的自主代理经常被引用为AI未来的一个飞跃的例子。

AGI(人工通用智能)

AGI是一种具备人类完整智力能力的程序或模型,即通用智能。AGI具有推理、常识、抽象知识和创造力等能力。实质上,它能够在没有人类指令的情况下自主执行任务。真正的AGI尚不存在,但专家们相信它可能在不久的将来实现(尽管对于确切的时间观点不一致)。OpenAI、DeepMind和Anthropic等公司致力于尝试创建AGI。另见:强人工智能

算法

算法是计算机程序遵循的一组规则或指令。在AI的上下文中,算法是构建其智能的基础。想象一下人脑中的某个动作被分解成一系列步骤。算法通过建立一系列的if-then语句来模拟这个过程。

对齐

对齐指的是AI在没有明确包含在提示或请求中的目标上的成功实现程度。这些目标可以包括准确性、安全性和防止伤害。如果AI不对齐,它就会偏离其预定的用途和应用,即给出错误或不适当的响应。对齐是伦理讨论的重要组成部分,因为缺乏适当对齐的模型有可能传播错误信息、制造网络安全威胁并分享危险或有害信息。

AI(人工智能)

AI是指可以自动化或执行由人类设计的特定任务的技术的总称。最近,当人们谈论AI时(”AI将毁灭人类”或”AI将取代我们的工作”),他们谈论的是AGI和生成式AI。但AI是一个庞大的概念,包含了我们多年来一直在使用的许多技术,比如推荐内容或产品的算法,自动驾驶汽车或语音助手。

黑盒

有些AI模型有时被称为黑盒,这意味着用户无法看到或理解技术的内部工作原理。黑盒问题在生成式AI的讨论中尤为重要,因为OpenAI和Google等公司对其工作方式保密得出了名。此外,由于生成式AI在某种程度上是自主的,即使开发人员也无法完全理解算法生成输出的方式。随着伦理学家和决策者呼吁AI公司更加负责任和透明,揭开黑盒子的重要性也日益提高。

聊天机器人

聊天机器人是一种可以和人类进行对话的程序或模型,如ChatGPT,但这个术语也可以指提供替代与客服代表通过电话或短信交谈的客服聊天机器人。ChatGPT、Bard、Bing和Character.AI等聊天机器人因其与用户进行复杂而类似人类的对话能力而受到关注,但聊天机器人已经存在一段时间。ELIZA被认为是第一个聊天机器人,于1966年开发,由麻省理工学院的科学家Joseph Weizenbaum开发。

深度学习

深度学习是机器学习的一个子集,模仿人类学习的方式。通过神经网络的支持,深度学习使用多层算法来理解复杂和抽象的概念,例如对话和图像。深度学习的应用包括人脸识别技术、像ChatGPT这样的聊天机器人,以及无人驾驶汽车

扩散模型

扩散模型是一种机器学习模型,可以生成类似于训练数据的响应。技术上讲,它是使用变分推断训练的马尔科夫链Markov chain trained using variational inference。马尔科夫链和变分推断是用于预测序列和逼近大量数据中的信息的数学术语。但你需要明白的是,扩散模型是实现AI图像生成的关键。稳定扩散Stable Diffusion、OpenAI的DALL-EMidjourney都是使用扩散模型的产品示例。

生成型人工智能

多亏了OpenAI推出的ChatGPT,生成型人工智能已经进入了主流。生成型人工智能是一种可以根据用户提示创建文本、图像、视频、音频和代码的AI类型。生成型人工智能是驱动像ChatGPT这样的AI聊天机器人的核心。

它通过最初从数据中学习模式(参见下面的训练)并在接收到新的提示数据后持续学习。生成型人工智能通常以聊天界面的形式存在,例如ChatGPT、必应(Bing)和巴德(Bard),以便与用户进行交流。ChatGPT的推出引发了一阵狂热,因为它使人们能够轻松而便捷地理解和利用生成型人工智能的功能。尽管生成型人工智能具有诸多好处,但其广泛使用也存在危险,因为它倾向于“产生幻觉”,或者说自信地编造事实。

与简单形式的人工智能不同,生成型人工智能能够根据训练数据创造全新的内容,而不是执行特定目标的传感器或者原封不动地重复现有信息的语音助手。

伦理学家和政策制定者呼吁对生成型人工智能进行监管,因为它有可能传播错误信息、固化偏见或者助长网络犯罪。生成型人工智能模型还使用从网络上抓取的数据集,这引发了对隐私和版权侵权的担忧。生成型人工智能迅速生成内容和自动化任务的能力也引发了对取代工作岗位的担忧,特别是在媒体和娱乐领域。

图形处理单元(GPU)

GPU是一种强大的芯片或者显卡,能够处理多个复杂的计算任务。GPU最初用于处理图像和图形(正如其名称所示),但它们已经为机器学习适应它们所需的大量计算能力而改进。据估计,ChatGPT使用了20,000个GPU,并且最终将需要30,000张显卡来支持其模型。

幻觉

生成型人工智能,特别是基于文本的聊天机器人,倾向于编造事实。这被描述为“幻觉”,因为生成型人工智能有时可能会自信地谈论虚假的事物。

例如,生成型人工智能聊天机器人可能会幻觉地说史蒂夫·乔布斯是一位在老鼠帮时期流行于拉斯维加斯的近景魔术师。但更常见(也更令人担忧)的是,生成型人工智能聊天机器人以微妙的方式幻觉,将事实与虚构混为一谈。例如,它可能会说史蒂夫·乔布斯是苹果的创始人(正确),领导了iPhone的推出(正确),并因此被评为《时代》年度人物(不正确)。

这是因为生成式AI模型是通过根据前一个单词的概率关系来预测单词的,它无法理解自己生成的内容。这提醒我们,ChatGPT可能会表现得像有意识的存在,但它并不是

越狱

越狱一个聊天机器人是指让它执行超出预期用途的操作。通过使用某种特定的提示,越狱可以使用户绕过规则或限制,从而诱使聊天机器人执行其本不应该根据其定位执行的操作。越狱行为可以从让聊天机器人仅仅出于娱乐而说出冒犯性或不合适的内容,到使其分享危险和可落实的信息,例如制造凝固汽油的方法。

大型语言模型(LLM)

大型语言模型是一种利用大量数据进行训练以理解和生成文本的人工智能软件程序。LLM通过基于概率预测下一个单词来串联句子。由于LLM已经使用了大量数据进行训练,基本上覆盖了整个互联网的内容,所以它们非常成功地使用这种方法生成类似人类的文本。OpenAI的GPT模型、Google的PaLM模型和Meta的Llama模型都是LLM的示例。GPT-3.5和GPT-4是ChatGPT和PaLM 2的核心,而Bard则是Meta的核心。

许可数据

许可数据是企业或组织为训练人工智能而购买或访问的网络信息。你可能会听到一些公司声称使用许可数据来训练他们的模型。这意味着数据是在合法的情况下获得的。

由于像ChatGPT这样的AI模型需要大量数据进行训练,所以许可数据的问题最近引起了很多争议。在法律术语上它变得模糊不清,因为人们对公共领域的定义、原始创作者的意图以及公司如何被允许使用那些数据进行争论。

机器学习

机器学习是人工智能领域的一种方法,通过对数据进行训练来使模型随时间学习和改进。机器学习模型利用数据识别模式、分类信息和做出预测。例如,通过分类学习筛选垃圾邮件、使用住房数据预测房价或识别狗的图片都是机器学习的例子。

人工智能(AI)和机器学习是经常互换使用的术语,但机器学习是AI的一个子集,通过使用数据进行训练来建立智能。

模型

你可能经常在与人工智能相关的内容中听到这个术语。模型是为特定目的设计的一个程序或算法。AI模型是一个通用术语,用于复制和/或自动化某些任务。

自然语言处理(NLP)

ChatGPT的回答读起来如此逼真人类,这是因为自然语言处理的原因。该术语指的是通过对文本和语音进行训练的学科,使模型能够像人类一样理解和表达自己。自然语言处理还涉及语言学研究,以使模型能够理解语言的复杂性和细微差别。

神经网络

受到人脑工作方式的启发,神经网络是由人工”神经元”或节点相互通信的算法组成。两个神经元之间的每个连接都具有某个值或”权重”。这些权重会自动对输入进行某些评估,如果达到某个阈值,神经元就会”发射”,将信息传递给网络中的其他神经元。神经网络推动了深度学习

开源

开源意味着软件程序的源代码对公众开放和免费使用(而黑盒则是封闭的)。这意味着开发人员可以使用、修改和构建自己的产品。开源AI模型被视为使AI开发民主化的一种方式,而它经常被保密包围。与Google和OpenAI的封闭源代码模型不同,Meta最近发布了一个开源的LLM(Llama 2)。其他开源模型包括FalconMPTRedPajama

参数

参数是LLM中的变量,可以在训练过程中进行加权或调整,以确定特定的结果。你可能听说过关于参数的事情,比如GPT-4有1.7万亿个参数。LLM拥有的参数越多,它就越复杂,学习能力越强。

将参数视为高质量相机上的设置。在相机上,你可以调整光线、感光度、缩放、光圈,更换镜头等等,每个配置都会产生略有不同的结果。现在想象将其乘以数十亿或数万亿,这就是参数的作用。

提示

提示是用户发送给聊天机器人的请求或问题。有一个完整的子文化致力于确保大型语言模型给出最佳回应。无论是用于代码生成、越狱,还是为了找到最好的答案,提示取决于清晰度、简洁度、上下文和意图。参见:Prompt engineer。

提示工程师

随着生成式AI聊天机器人的崛起,对于能够制定正确提示的专业知识的需求突然增加。这就是提示工程的用武之地。提示工程师是一位对LLM具有深入了解的人,能够为不同的目的优化最佳提示。这可以确保聊天机器人成功理解请求,或者搜索模型以发现威胁和漏洞。

提示注入攻击

LLM的崛起导致了一种新型的网络攻击,称为提示注入攻击。提示注入类似于越狱,是利用精心制作的提示来操纵像ChatGPT这样的模型,以达到恶意目的。通过提示注入,黑客利用聊天机器人内部的漏洞分享机密信息,或者绕过模型的防护措施。攻击者可以直接与聊天机器人进行交互,也可以通过在插件或网页中隐藏提示,秘密访问个人或付款信息。

推荐算法/系统

在ChatGPT的崛起之前,人工智能已经成为我们生活的重要组成部分。其中一个更为普遍的例子是推荐算法(或系统)。推荐算法是指根据用户数据和行为进行推荐的机器学习算法。Netflix上的推荐节目、亚马逊上的产品、YouTube和TikTok上的视频,以及Instagram上的发布内容,都是推荐算法在发挥作用的一些例子。

强人工智能

强人工智能是对AGI(人工通用智能)的另一个称呼。它是一种理论上(目前为止)的人工智能形式,可以自主地“思考”和像人类一样行动。

令牌

令牌是大型语言模型中的信息单位。它可以是一个单词、一个单词的一部分、标点符号,或者代码的一部分 – 实际上是具有含义的最基本形式。当你听说一个LLM在某个令牌数量上进行了训练,或者一个定价模型每1000个令牌的成本是多少美分时,这就是指的令牌。

训练

训练是向机器学习模型提供数据的过程。有两种类型的训练:有监督学习和无监督学习。有监督学习是用已经被标记或分类的数据对模型进行训练,而无监督学习则使用未标记的数据,强迫其自行学习模式和关联。每种类型的训练都有其优点和缺点。像GPT-4这样的LLM使用了无监督学习和有监督学习的组合。

训练数据

训练数据是用于训练机器学习模型的数据。LLM的训练数据包括大量从互联网中获取的数据集。

有公共数据集,如Common Crawl和维基百科数据库,还有由谷歌等拥有资源的公司收集的专有数据集。例如,谷歌旗下的DeepMind创建了名为MassiveWeb的数据集,其中包括Reddit、Facebook、YouTube和Medium等社交媒体和博客网站。所以,如果你曾经在这些网站上发布过内容,你的数据可能被用来训练Bard

Transformer

你知道GPT(如ChatGPT中的GPT)代表生成预训练变压器吗?它不仅仅是一个让人绕口的缩写。变压器是一种用于生成人工智能的深度学习模型的神经网络类型。它通过使用“自注意”机制将单词(令牌)与上下文相结合,使得它能预测下一个可能的单词是什么。否则,模型将仅将单词视为数据的一部分,而没有任何相互关联的内容。

变压器模型,它催生了像ChatGPT这样的产品的发展,起源于2017年谷歌和多伦多大学的研究人员的一篇论文