LLM大语言模型第一章学习


教程链接:动手学大模型应用开发

1、大语言模型的概念是什么?

答:

LLM(large language model)大语言模型,通常包含数百亿参数的语言模型。较为出名的有GPT,PaLM,Claude和LLaMA等,国内有文心一言、通义千问、ChatGLM等。

参数GPT-3 :1750亿;GPT-2: 15亿

2、大模型的涌现能力?简单理解解释?

答:

涌现能力:大模型的规模达到一定规模时,会出现没有遇见到的新功能。这些新功能不是明确设定好的,而是自然涌现出来的。

关键点:规模足够大、新能力、非线性(涌现)

举例:小模型只能识别到基本的句子结构,但大模型训练后,除了理解句子结构还可以理解上下文。

3、什么是基座模型?简单理解?

答:

基座模型:通用的、大规模训练的模型,具有广泛适应性的模型。

关键词:基础模型,多任务能力,节省时间和计算资源

举例:openAI的GPT-4可视为基座模型,具有广泛的应用能力,微调之后,可以应用于在具体的场景中。

4、大模型开发中的agent的概念?智能体的简单理解?

答:

关键词:大模型、自主决策、多功能

举例:聊天机器人

5、LLM的特点?简单介绍理解?

答:

关键词:规模巨大;’预训练和微调;上下文感知;多模态支持;高计算资源

6、什么是RAG?简单举例说明?

答:

RAG(retrieval-augmented generation)检索增强生成。

retrieval 计算机中的检索;找回取回;

augment 增加,加强

关键词:信息检索;后模型生成;更多细节;

举例:问“谁是爱因斯坦”?

传统模型:从内置的知识库中知识回答,如“爱因斯坦是一位著名的物理学家,以相对论著称。”

RAG模型:从知识库中检索,如维基百科等;生成一个更加详细准确的回答。如“阿尔伯特·爱因斯坦(Albert Einstein)是德国出生的理论物理学家,因提出相对论而著名。他于1921年获得诺贝尔物理学奖,以表彰他在理论物理学方面的贡献,特别是发现了光电效应。”

7、RAG与微调的简单区别?

答:

RAG:先通过检索,可提供最新或特定细节。

微调(fine tuning):在特定领域,如利用医疗领域的信息训练;更好的表达效果。

8、LangChain框架的简介?举例说明?

答:

LangChain是一个用于构建语言模型应用的框架,专注于通过集成不同的语言模型和工具来创建复杂的自然语言处理(NLP)工作流。

关键词:提供模块;支持多种框架;简化开发流程

9、介绍说明名词,举例说明:Embedding模型、chroma数据库、前后端Gradio和steamlit?

答:

Embedding模型:将单词表示为向量,语义相近的单词在向量空间中的距离较近。

Chroma数据库:专门用于存储和检索高维向量的数据库,用于快速检索相似数据的场景。

前后端Gradio和steamlit:部署和交互Web应用的框架,适用于机器学习模型的演示和模型开发。


10、codespace的解释?用途介绍?

答:

云端开发环境,集成了github仓库。

关键词:快速上手项目;高性能计算;随时随地编程;远程开发;

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容