首页 人工智能关键技术

人工智能关键技术

N-Gram模型

一、什么是 N-Gram 模型? N-Gram 模型是一种在自然语言处理(NLP)中常用的概率模型,用于预测文本中的单词序列。在 N-Gram 模型中,"N" 指的是一组中包含的相…

对齐技术

大模型对齐技术主要涉及在大规模神经网络模型中实现参数、数据和学习目标的一致性和协调。这是确保大型机器学习模型有效学习和泛化的重要方面。以下是一些关键的大模型对齐技术:  …

超参数

对于大型语言模型来说,超参数确实会达到非常大的规模。 关键超参数及规模 参数数量 (Parameters):目前最大的模型参数数量已经达到千亿级 (hundreds of bill…

高维嵌入向量

高维嵌入向量是一种在机器学习和数据科学中常见的数据表示形式,特别是在处理自然语言处理(NLP)和计算机视觉等领域时。嵌入向量通常是通过将原始数据转换成高维空间中的点来实现的,以便更…

拟合

在统计学、机器学习和数据科学中,拟合(Fitting)通常指的是构建一个模型以使其尽可能地接近或解释观测到的数据。拟合的目标是找到一个数学函数或算法,它能够捕捉数据中的基本趋势和模…

特征提取

深度学习中的特征提取是指使用深度神经网络从原始数据中自动识别和提取有用的特征或信息的过程。这些特征对于后续的任务,如分类、检测或预测等,是至关重要的。以下是深度学习特征提取的关键方…

Q*强化学习

一、项目背景与研究意义 2023年11月23日,历经管理层变动后Sam Altman重新回归OpenAI,同期该公司宣布Q项目取得重大突破,这一消息引发广泛关注,所有矛头指向AI突…

微调

在大型语言模型(如 GPT-3, BERT 等)的应用中,SFT(Supervised Fine-Tuning)即有监督微调,是一个重要的步骤。这一过程涉及将已经在大规模数据集上预…

数据集

大型语言模型的预训练是一个复杂且耗时的过程,它从数据的收集和准备开始,直至模型在大规模数据集上进行训练。以下是预训练数据准备的一般流程: 1. 数据收集 数据源选择:根据模型的目标…

大语言模型

大型语言模型(Large Language Models)是自然语言处理(NLP)领域的一种重要技术,旨在理解和生成人类语言。这些模型通常基于深度学习架构,特别是在大规模数据集上进…

神经网络

神经网络是深度学习和人工智能的核心技术,通过模拟人脑神经元的工作方式来处理复杂数据。   稠密网络 大模型稠密网络(Large Dense Models)在深度学习和人工…

词表

词表(或词汇表)在自然语言处理(NLP)中是一个非常重要的概念,特别是在文本处理和模型训练方面。简单来说,词表是一个集合,包含了一个特定语料库或数据集中所有唯一单词或词元(toke…

BPE编码

Byte Pair Encoding(BPE)的编码原理是一种简单而有效的数据压缩技术,后来被广泛应用于自然语言处理(NLP)中的文本分词。BPE 通过迭代地合并文本中最常见的字符…

GPT预训练技术

一、GPT预训练技术概述 GPT(Generative Pre-trained Transformer)是一种基于Transformer架构的预训练技术,它主要用于自然语言处理(N…

Transformer技术

在人工智能发展的长河中,2017年注定是一个值得铭记的年份。谷歌研究团队在这一年发表的论文《Attention Is All You Need》中提出的Transformer技术,…