OpenAI & ChatGPT专有名词对照表
以下是一个常用于Azure OpenAI的专有名词对照表。在设置模型时,我们经常会遇到这些词汇。熟悉这些专有名词可以帮助我们更快地理解模型的运作原理,并使AI的回答更加符合我们的需求。
更加进阶的参数对照表可以参考官方的文件 Azure OpenAI 服务 REST API 参考。
英文 | 中文/全称 | 描述 |
---|---|---|
AI | 人工智能(Artificial Intelligence) | 是一个以计算机科学(Computer Science)为基础,由计算机、心理学、哲学等多学科交叉融合的交叉学科、新兴学科,研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学 |
PGC | 专业生产内容(Professional Generated Content) | PGC(Professionally-generated Content,专业生成内容),互联网术语,即专业生成内容,也称PPC(Professionally-produced Content)。指专业生成内容(视频网站)、专家生成内容(微博)等等。 |
UGC | 用户生成内容(User Generated Content) | UGC 互联网术语,全称为User Generated Content,也就是用户生成内容,即用户原创内容。 |
AIGC | 人工智能生成内容(Artificial Intelligence Generated Content) | 指基于人工智能通过已有数据寻找规律,并自动生成内容的生产方式。 |
transformer | 变换器 | 是一种采用自注意力机制的深度学习模型 |
GPT | Generative pre-trained transformer | 基于transformer的生成式预训练模型(Generative pre-trained transformer),一个人工智能语言模型系列。 |
LLM | 大语言模型(Large Language Model) | 大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。 |
Prompt | 提示 | 一段给AI的提示,以对话的形式呈现 |
Prompt engineering | 提示工程 | 和AI对话的工程技术 |
Completion | 完成 | AI根据提示生成的回答或者输出 |
Embedding | 内嵌 | 将文字或韵律转换为数字向量的技术,使得AI能够理解和处理文字。 |
Token | 标记/令牌 | 语言模型理解和处理文本的基本单位,可以是一字、一词或一字符。 |
TPM | 每分钟令牌数(tokens per minute) | OpenAI API每分钟Token请求数量 |
RPM | 每分钟请求次数(Requests Per Minute ) | OpenAI API每分钟请求次数 |
Model | 模型 | AI的核心,它学习并理解数据的方式 |
Resource | 资源 | 创建一个服务即为Resource |
Deployment | 部署 | 让AI模型能够被使用 |
In-context learning | 情境中学习 | AI在对话的情境中学习和适应的能力 |
Few-shot | 少量样本 | 提供数据例子,AI更妥善地针对目前的推断回应。 |
One-shot | 一次样本 | 提供一个例子,AI针对目前的推断回应。 |
Zero-shot | 零样本 | 不提供范例,AI根据语言模型直接做出回应。 |
Temperature | 温度 | 控制随机性。 降低温度意味着模型会产生更多重复性和确定性的回复。 提高温度会导致更多意外或创造性的回复。 请尝试调整温度或 Top P 值,但不要同时调整两者。 |
Max length (tokens) | 最大长度(标记) | 对每个模型回复的标记数设置限制。 该 API 支持最多 4096 个标记,包括提示(包括系统消息、示例、消息历史记录以及用户查询)和模型的回复。 对于典型的英文文本,一个标记大约是四个字符。 |
Top probabilities | 概率最高值 | 与温度类似,它控制着随机性,但使用不同的方法。 降低 Top P 值会将模型的标记选择范围缩小到可能性更高的标记。 增加 Top P 值会使模型既选择可能高的标记又选择可能性低的标记。 请尝试调整温度或 Top P 值,但不要同时调整两者。 |
Multi-turn conversations | 多回合对话 | 选择要包含在每个新 API 请求中的过去消息数。 这有助于为新用户查询提供模型上下文。 将此数字设置为 10 即表示 5 个用户查询和 5 个系统回复。 |
Stop sequences | 停止序列 | 停止序列使模型在所需时间点结束响应。 模型响应会在指定序列之前结束,因此它不包含停止序列文本。 对于 ChatGPT,使用 <|im_end|> 可确保模型响应不会生成后续用户查询。 可以包含多达四个停止序列。 |
Fine-tunes | 微调 | 给模型提供数据,对模型进行微调 |
Engine | 引擎 | GPT不同能力的 AI 模型 |
SLA | 服务级别协议 | 专门用于描述了产品正常运行时间和连接性的承诺的协议 |
SOTA | state-of-the-art | 用于描述机器学习中取得某个任务上当前最优效果的模型 |
CoT | Chain-of-Thought | 提示工程中使用的一种方法被称为链式思考(Chain-of-Thought,简称CoT)提示,这种方法为语言模型提供了少数的任务示例,以提高其推理能力。这种方法首次由Google的研究人员在2022年提出,并已经在改善大型语言模型(LLMs)的推理能力方面取得了效果。例如,在一个多步骤的问题中,CoT提示会引导模型在给出最终答案之前产生中间的推理步骤 |
发布者:黎跃春,转转请注明出处:https://liyuechun.com/2023/06/26/azure-openai-noun-glossary/