从2022年11月对话交互式发布以来,引发了人工智能(Artificial Intelligence)生成内容(AIGC)技术的质变,标志着人类进入了大模型时代
大模型,即人工智能的模型,是以数学和统计学为算法基础的,可以用来描述一个系统或者一个数据集。在机器学习中,模型是核心的概念。模型通常是一个函数或者一组函数,可以是线性函数、非线性函数、决策树、神经网络等各种形式。模型的本质就是对这个函数映射的描述和抽象,通过模型进行训练和优化,可以得到更加准确和有效的函数映射。建立模型的目的是希望从数据中找出一些规律和模式,并用这些规律和模式预测未来的结果。
大模型的基本特征
大模型以人工神经网络(ANN)为基础,经过不断的发展,到今天以某开放AI为代表的团队,为了让具有多层表示的神经网络学会复杂事物,创造了一个初始化网络的方法,即预训练(pre-trained)。在GTP中,P代表经过预训练(pre-trained),T代表Transformer,G代表生成性的(generative)。实际上,是生成模型为神经网络提供了更好的预训练方法。现在的大模型都是以人工神经网络为基础的算法数学模型。这种人工智能是一个复杂系统,通过分布式并行和调整内部大量节点之间相互连接的信息
预训练
预训练促进规模化。所谓的规模化是指用于训练模型的计算量,最终转化为训练越来越大的模型,具有越来越大的模型。在预训练过程中,大模型形成理解上下文学习的能力。大模型通过大量语料库训练获得的生成文本中,根据输入文本和生成的上下文生成合适的文本输出、学习词汇、句法结构、语法规则等多层次的语言知识,通过大量样本进行学习,更多的计算资源的投入,包括正确和错误的文本样本,捕捉到语法和句法的统计性规律,形成一个词或字符的概率的预测能力,进而根据不同的样本的预测错误程度调整参数,处理复杂的语境,最终逐渐优化生成的文本。例如:GTP会根据之前的上下文和当前的生成状态,选择最有可能的下一个词或短语。
大模型具有理解自然语言的能力和模式,在大模型研究的早期阶段,研究工作主要集中在NLP领域,形成从简单的文本问答、文本创作到符号式语言的推理能力。
词嵌入(embedding)是一种将词语映射到低维实数向量空间的技术,用于表示词语的语义信息。将输入的文本转换为词嵌入向量来进行模型的处理和生成。词向量表示是将词语映射到连续向量空间的技术,用于在模型中表示词语。所谓的向量化的文本,就是模型对自然语言的压缩和总结。向量也因此成为大模型数据存储的基本单位和AI理解世界的通用数据形式,大模型需要向量数据库,其实时性对分布式计算的要求很高,随着数据的变化实时更新,以保障向量的高效存储和搜索。
大模型和Transformer
如果说神经网络是大模型的"大脑",那么Transformer就是大模型的“心脏”。
论文:Attention Is All You Need,系统提出了Transformer的原理、构建和大模型算法。
Transformer是一种基于注意力机制的深度神经网络,可以高效并行处理序列数据,与人的大脑非常近似。
Transformer包括以下基本特征:
1、由编码组件(encoder)和解码组件(decoder)两个部分组成
2、采用神经网络处理序列数据,神经网络被用来将一种类型的数据转换为另一个类型的数据
3、拥有的训练数据和参数越多,它就越有能力在较长文本序列中保持连贯性和一致性
4、标记和潜入---输入文本必须经过处理并转换为统一格式,才能输入到Transformer
5、实现并行处理整个序列,从而可以将顺序深度学习模型的速度和容量扩展到前所未有的速度
6、引入“注意机制”,可以在正向和反向的非常长的文本序列中跟踪单词之间的关系,包括自注意力机制(self-attention)和多头注意力机制(multi-head attention)---其中的多头注意力机制中有多个自注意力机制,可以捕获单词之间多种维度上的相关系数注意力评分(attention score),摒弃了递归和卷积;
7、训练和反馈---在训练期间,Transformer提供了非常大的配对示例语料库,编码器模块接收并处理完整的输入字符串,尝试建立编码的注意向量和预期结果之间的映射。
Transformer被广泛应用于NLP的各个领域,是一套在NLP各业务全面开花的语言模型。
吕建雄
2024.10.07