第三部分 搭建RAG应用、系统评估与优化

1、提示词模版的示例及理解?

答:

提示词模版:prompt templates,提供当前任务的特定上下文,即输入与输出之间的逻辑。

示例:

from langchain.prompts.chat import ChatPromptTemplate

# 步骤一:定义模版,AI助手的角色和能力

template = "你是一个翻译助手,可以帮助我将 {input_language} 翻译成 {output_language}."

# 步骤二: 定义人类消息模版,{text}为占位符

human_template = "{text}"

# 步骤三:创建实例,提示词模版,系统消息,输入消息

chat_prompt = ChatPromptTemplate.from_messages([

    ("system", template),

    ("human", human_template),

])

# 步骤四:加入消息文本,创建message列表,传送给AI模型

text = "我带着比身体重的行李,\

游入尼罗河底,\

经过几道闪电 看到一堆光圈,\

不确定是不是这里。\

"

messages  = chat_prompt.format_messages(input_language="中文", output_language="英文", text=text)

messages


2、输出解析器的作用?类型?输入输出形式?

答:

输出解析器,output parser:类型转换,将语言模型的输出转化为可使用的格式,如字符串等。示例如下:

# StrOutputParser()将chatMessage类型解析为字符串的类

output_parser = StrOutputParser()

output_parser.invoke(output)

3、什么是LCEL语法?有何优势?举例说明?

答:

LCEL(LangChain expression language):LangChain表示式语言,实现拼接功能。用户输入传递到提示模板,然后提示模板输出传递到模型,然后模型输出传递到输出解析器。示例如下:

chain = prompt | model | output_parser

4、使用LangChain调用智谱AI模型的流程?代码结构?分析核心模块?

答:

代码解释如下:

# 步骤一 需要自定义一个大模型的文件并导入

from zhipuai_llm import ZhipuAILLM

# 步骤二 创建大模型智能体
zhipuai_model = ZhipuAILLM(model="chatglm_std", temperature=0, api_key=api_key)

# 步骤三 传入message信息,得到模型的输出信息

output = zhipuai_model.invoke(messages)

# 步骤四 定义一个输出解析器,可将输出信息类型从chatMessage类型转换为string类型

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

output_parser.invoke(output)

# 步骤五 使用LCEL语法直接连接在一起

llm = zhipuai_model

output_parser = StrOutputParser()

chain = chat_prompt | llm | output_parser

chain.invoke(prompt)

创建智能体的类,以ZhipuAI为例,如下:

class ZhipuAILLM(LLM):

    # 默认选用 glm-4 模型

    model: str = "glm-4"

    # 温度系数

    temperature: float = 0.1

    # API_Key

    api_key: str = None

# 创建_call函数,输入:提示词,输出模型的处理结果

    def _call(self, prompt : str, stop: Optional[List[str]] = None,

                run_manager: Optional[CallbackManagerForLLMRun] = None,

                **kwargs: Any):


        def gen_glm_params(prompt):

            '''

            构造 GLM 模型请求参数 messages

            请求参数:

                prompt: 对应的用户提示词

            '''


            messages = [{"role": "user", "content": prompt+"你是一个翻译助手,帮助将文字翻译成英文"}]

            return messages


        client = ZhipuAI(

            api_key=self.api_key

        )


        messages = gen_glm_params(prompt)

        response = client.chat.completions.create(

            model = self.model,

            messages = messages,

            temperature = self.temperature

        )

        if len(response.choices) > 0:

            return response.choices[0].message.content

        return "generate answer error"


11、大模型评估的方法有哪些?举例说明?代码实现?

12、评估优化生成部分的思路?举例说明?代码实现?

13、评估优化检索部分的思路?举例说明?代码实现?

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。