LLM

从2022年11月对话交互式发布以来,引发了人工智能(Artificial Intelligence)生成内容(AIGC)技术的质变,标志着人类进入了大模型时代

大模型,即人工智能的模型,是以数学和统计学为算法基础的,可以用来描述一个系统或者一个数据集。在机器学习中,模型是核心的概念。模型通常是一个函数或者一组函数,可以是线性函数、非线性函数、决策树、神经网络等各种形式。模型的本质就是对这个函数映射的描述和抽象,通过模型进行训练和优化,可以得到更加准确和有效的函数映射。建立模型的目的是希望从数据中找出一些规律和模式,并用这些规律和模式预测未来的结果。

LLM

大模型的基本特征

大模型以人工神经网络(ANN)为基础,经过不断的发展,到今天以某开放AI为代表的团队,为了让具有多层表示的神经网络学会复杂事物,创造了一个初始化网络的方法,即预训练(pre-trained)。在GTP中,P代表经过预训练(pre-trained),T代表Transformer,G代表生成性的(generative)。实际上,是生成模型为神经网络提供了更好的预训练方法。现在的大模型都是以人工神经网络为基础的算法数学模型。这种人工智能是一个复杂系统,通过分布式并行和调整内部大量节点之间相互连接的信息

预训练

预训练促进规模化。所谓的规模化是指用于训练模型的计算量,最终转化为训练越来越大的模型,具有越来越大的模型。在预训练过程中,大模型形成理解上下文学习的能力。大模型通过大量语料库训练获得的生成文本中,根据输入文本和生成的上下文生成合适的文本输出、学习词汇、句法结构、语法规则等多层次的语言知识,通过大量样本进行学习,更多的计算资源的投入,包括正确和错误的文本样本,捕捉到语法和句法的统计性规律,形成一个词或字符的概率的预测能力,进而根据不同的样本的预测错误程度调整参数,处理复杂的语境,最终逐渐优化生成的文本。例如:GTP会根据之前的上下文和当前的生成状态,选择最有可能的下一个词或短语。

大模型具有理解自然语言的能力和模式,在大模型研究的早期阶段,研究工作主要集中在NLP领域,形成从简单的文本问答、文本创作到符号式语言的推理能力。

词嵌入(embedding)是一种将词语映射到低维实数向量空间的技术,用于表示词语的语义信息。将输入的文本转换为词嵌入向量来进行模型的处理和生成。词向量表示是将词语映射到连续向量空间的技术,用于在模型中表示词语。所谓的向量化的文本,就是模型对自然语言的压缩和总结。向量也因此成为大模型数据存储的基本单位和AI理解世界的通用数据形式,大模型需要向量数据库,其实时性对分布式计算的要求很高,随着数据的变化实时更新,以保障向量的高效存储和搜索。

大模型和Transformer

如果说神经网络是大模型的"大脑",那么Transformer就是大模型的“心脏”。

论文:Attention Is All You Need,系统提出了Transformer的原理、构建和大模型算法。

Transformer是一种基于注意力机制的深度神经网络,可以高效并行处理序列数据,与人的大脑非常近似。

Transformer包括以下基本特征:

1、由编码组件(encoder)和解码组件(decoder)两个部分组成

2、采用神经网络处理序列数据,神经网络被用来将一种类型的数据转换为另一个类型的数据

3、拥有的训练数据和参数越多,它就越有能力在较长文本序列中保持连贯性和一致性

4、标记和潜入---输入文本必须经过处理并转换为统一格式,才能输入到Transformer

5、实现并行处理整个序列,从而可以将顺序深度学习模型的速度和容量扩展到前所未有的速度

6、引入“注意机制”,可以在正向和反向的非常长的文本序列中跟踪单词之间的关系,包括自注意力机制(self-attention)和多头注意力机制(multi-head attention)---其中的多头注意力机制中有多个自注意力机制,可以捕获单词之间多种维度上的相关系数注意力评分(attention score),摒弃了递归和卷积;

7、训练和反馈---在训练期间,Transformer提供了非常大的配对示例语料库,编码器模块接收并处理完整的输入字符串,尝试建立编码的注意向量和预期结果之间的映射。

Transformer被广泛应用于NLP的各个领域,是一套在NLP各业务全面开花的语言模型。

吕建雄

2024.10.07

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 语言千遍万化,中文更是博大进深。如何用计算机去表达语言,理解词语,明白句子之间的关系含义呢。向量化的探索为人类人工...
    Peter新阅读 4,073评论 0 1
  • 工欲善其事必先利其器,在了解大语言模型和GPT之前先要了解基本概念。 LLMLarge Language Mode...
    梅西爱骑车阅读 5,852评论 0 0
  • 自2022年,ChatGPT发布之后,大语言模型(Large Language Model),简称LLM掀起了一波...
    相藩阅读 5,089评论 0 0
  • 前言 ChatGPT的出现鼓舞了NLP的科研人员和工作者,大模型的涌现让AI在即将退潮时又掀起了层层巨浪。大家似乎...
    眼镜猫头鹰阅读 4,937评论 0 0
  • LLM定义 大语言模型(LLM)是一种基于大量文本数据训练的深度学习模型。它的主要功能是生成自然语言文本或理解语言...
    shengjk1阅读 2,890评论 0 2