AGI
Artificial General Intelligence(AGI),通用人工智能,是具备与人类同等智能、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。又名强人工智能。
AI
Artificial Intelligence,即人工智能,1956年于Dartmouth学会上提出,一种旨在以类似人类反应的方式对刺激做出反应并从中学习的技术,其理解和判断水平通常只能在人类的专业技能中找到。AI因具备自主学习和认知能力,可进行自我调整和改进,从而应对更加复杂的任务。
AIGC
全称“AI generated content”,意为人类智能生成内容,是一种内容生产形式。例如AI文字续写,文字转像的AI图、AI主持人等,都属于AIGC的应用。
ANI
Artificial Narrow Intelligence(ANI),狭义的人工智能,即专注一件事的 AI ,如下围棋的AlphaGo。又名弱人工智能。
ASI
Artificial Super Intelligence(ASI),尽管存在争议,但ASI通常被定义为超越人类思维能力的人工智能。
Accelerator
一类旨在加速人工智能应用的微处理器。
Agents
Agent(智能体) = 一个设置了一些目标或任务,可以迭代运行的大型语言模型。这与大型语言模型(LLM)在像ChatGPT这样的工具中“通常”的使用方式不同。在ChatGPT中,你提出一个问题并获得一个答案作为回应。而Agent拥有复杂的工作流程,模型本质上可以自我对话,而无需人类驱动每一部分的交互。
Prompt Engineering提示工程
它是人工智能中的一个概念,特别是自然语言处理(NLP)。 在提示工程中,任务的描述会被嵌入到输入中。提示工程的典型工作方式是将一个或多个任务转换为基于提示的数据集,并通过所谓的“基于提示的学习(prompt-based learning)”来训练语言模型。
RAG
RAG(Retrieval-augmented generation) 检索增强生成
RLHF强化学习
在机器学习中,人类反馈强化学习( RLHF ) 或人类偏好强化学习 是一种直接根据人类反馈训练“奖励模型”并将该模型用作奖励函数以使用强化学习优化代理策略的技术。
RNN循环神经网络
循环神经网络(Recurrent neural network:RNN)是神经网络的一种。单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。
Regularization正则化
在机器学习中,正则化是一种通过向模型的损失函数添加惩罚项来防止过度拟合的技术。这种惩罚不鼓励模型过度依赖训练数据中的复杂模式,从而促进更可推广且更不容易过度拟合的模型。
Reinforcement Learning强化学习
强化学习(Reinforcement learning,简称RL)是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。强化学习是除了监督学习和非监督学习之外的第三种基本的机器学习方法。
Singularity奇点
在人工智能的背景下,奇点(也称为技术奇点)是指一个假设的未来时间点,当技术增长变得不可控和不可逆转时,导致人类文明发生不可预见的变化。
Supervised Learning监督学习
监督学习是机器学习的一种方法,可以由训练资料中学到或创建一个模式(函数 / learning model),并依此模式推测新的实例。训练资料是由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。
Symbolic AI符号主义
符号主义也被称为基于规则的AI或逻辑主义。符号主义的主要观点是,所有的知识和推理都可以用符号和规则来表示。这种方法依赖于明确定义的规则和符号,通过这些规则和符号进行逻辑推理。符号主义AI的典型例子是专家系统。专家系统是一种计算机系统,它通过推理和知识库(由一系列预定义的规则组成)来解决特定领域的问题。
System1 /System2
思考快与慢中提出着名的系统一(System 1)和系统二(System 2)的概念系统一是较快省力频繁使用感性的思考系统由经验既有知识和偏见所累积形成而系统二则是较费费力不常使用和理性的思考模式。
TPU张量处理单元
谷歌开发的一种微处理器,专门用于加速机器学习工作负载。
TensorFlow
由 Google 开发的开源机器学习平台,用于构建和训练机器学习模型。
Token
token 的计算工具:
https://gptforwork.com/tools/openai-chatgpt-api-pricing-calculator
在与ChatGPT的对话中,"token"是指一种文本输入的单位,它可以是一个单词、一个标点符号、一个字母或者是一个特殊的编码,具体取决于文本的处理方式。在自然语言处理中,我们通常将文本拆分为一个个离散的token,以便于计算机理解和处理
在GPT模型中,token是模型接收的最小单位。模型在训练和生成文本时,将输入的文本序列划分为一系列的token,并通过对这些token进行处理和分析来生成响应。例如,在一个对话中,一句话可以被划分为多个token,包括单词、标点符号等。
每个token都有一个对应的编码表示,通常是一个整数。这些编码将文本转换为模型能够处理的数值形式。在使用ChatGPT时,用户通常需要了解自己的输入文本中有多少个token,以确保不超过模型的最大输入限制。
需要注意的是,不同的模型和工具可能对token的定义和处理方式有所不同,但总体来说token是指文本处理和分析的最小单位
以下为基本Token数的估算:
5 bytes is ~1 token
1 web page is ~0.1MB
1book is ~0.8MB
WikiText-103 is 0.5GB
BookCorpus is 5GB (GPT1)
WebText is 40GB (used for GPT2)
Pile is 800GB
BigPython is 200GB
Common Crawl is 0.4PT
Goog index is likely 8 PT
Humans see/hear ~1B tokens lifetime
换算公式:https://platform.openai.com/tokenizer
Training Data训练数据
用于训练机器学习模型的数据集。
Transfer Learning迁移学习
机器学习中的一种方法,其中对新问题使用预先训练的模型。
Transformer Transformer模型
Transformer模型(直译为“变换器”)是一种采用自注意力机制的深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该模型主要用于自然语言处理(NLP)与计算机视觉(CV)领域。
Turing test图灵测试
图灵测试是英国计算机科学家艾伦·图灵于1950年提出的思想实验,目的是测试机器能否表现出与人一样的智力水准。测试时测试者透过计算机键盘输入文本并透过屏幕输出文本。
Underfitting欠拟合
欠拟合是指模型过于简单,不能够捕捉到数据中的基本结构和模式。欠拟合的模型在训练数据和新的、未见过的数据上的表现通常都不好。例如,如果我们试图用一条直线(线性模型)来拟合一组呈现出非线性模式的数据,那么我们可能会得到一个欠拟合的模型。
欠拟合和过拟合都是我们在机器学习中需要避免的问题。欠拟合意味着我们的模型过于简单,无法捕捉到数据的复杂性;过拟合意味着我们的模型过于复杂,以至于它开始学习到数据中的随机噪声。理想的模型应该在这两者之间找到平衡,既能够捕捉到数据的基本模式,也能够处理一些随机的噪声。
为了防止欠拟合,我们可以尝试使用更复杂的模型,或者添加更多的特征。为了防止过拟合,我们可以使用一系列的技术,例如交叉验证(cross-validation)、正则化(regularization)、早停(early stopping)等。
Unsupervised Learning无监督学习
无监督学习是机器学习的一种方法,没有给定事先标记过的训练示例,自动对输入的资料进行分类或分群。无监督学习的主要运用包含:聚类分析(cluster analysis)、关系规则(association rule)、维度缩减(dimensionality reduce)。它是监督式学习和强化学习等策略之外的一种选择。
Validation Data验证数据
机器学习中使用的数据集的子集,独立于训练数据集和测试数据集。它用于调整模型的超参数(即架构,而不是权重)。
Vector
向量,物理、工程等也称作矢量 、欧几里得向量(Euclidean vector),是数学、物理学和工程科学等多个自然科学中的基本概念。指一个同时具有大小和方向,且满足平行四边形法则的几何对象。理论数学中向量的定义为任何在称为向量空间的代数结构中的元素。一般地,同时满足具有大小和方向两个性质的几何对象即可认为是向量。向量常常在以符号加箭头标示以区别于其它量。与向量相对的概念称标量、纯量、数量,即只有大小、绝大多数情况下没有方向(电流是特例)、不满足平行四边形法则的量。
Vector Database向量数据库(En,非维基百科)
向量数据库(Om-iBASE)是基于智能算法提取需存储内容的特征,转变成具有大小定义、特征描述、空间位置的多维数值进行向量化存储的数据库,使内容不仅可被存储,同时可被智能检索与分析。
Weight模型权重
模型权重,在深度学习中,模型的权重(weights)是指神经网络中的参数,这些参数用于调整和学习模型的行为,以便能够对输入数据进行有效的映射和提取有用的特征。深度学习模型通常由许多神经元和连接组成,而权重就是连接这些神经元之间的参数。
XAI可解释的人工智能
Explainable AI (XAI) ,人工智能的一个子领域专注于创建透明的模型,为其决策提供清晰易懂的解释。
Zero-Shot零样本学习(En)
零样本学习(ZSL)是一种机器学习范例,使用预先训练的深度学习模型来泛化新类别的样本。 其思路是将训练实例中已经包含的知识迁移到测试实例分类的任务中。 简单来讲,零样本学习技术学习中间语义层及其属性,然后在推理时应用它们来预测新数据。 需要注意,零样本学习中训练和测试集是不相交的。
评论区