1、提示词模版的示例及理解?
答:
提示词模版:prompt templates,提供当前任务的特定上下文,即输入与输出之间的逻辑。
示例:
from langchain.prompts.chat import ChatPromptTemplate
# 步骤一:定义模版,AI助手的角色和能力
template = "你是一个翻译助手,可以帮助我将 {input_language} 翻译成 {output_language}."
# 步骤二: 定义人类消息模版,{text}为占位符
human_template = "{text}"
# 步骤三:创建实例,提示词模版,系统消息,输入消息
chat_prompt = ChatPromptTemplate.from_messages([
("system", template),
("human", human_template),
])
# 步骤四:加入消息文本,创建message列表,传送给AI模型
text = "我带着比身体重的行李,\
游入尼罗河底,\
经过几道闪电 看到一堆光圈,\
不确定是不是这里。\
"
messages = chat_prompt.format_messages(input_language="中文", output_language="英文", text=text)
messages
2、输出解析器的作用?类型?输入输出形式?
答:
输出解析器,output parser:类型转换,将语言模型的输出转化为可使用的格式,如字符串等。示例如下:
# StrOutputParser()将chatMessage类型解析为字符串的类
output_parser = StrOutputParser()
output_parser.invoke(output)
3、什么是LCEL语法?有何优势?举例说明?
答:
LCEL(LangChain expression language):LangChain表示式语言,实现拼接功能。用户输入传递到提示模板,然后提示模板输出传递到模型,然后模型输出传递到输出解析器。示例如下:
chain = prompt | model | output_parser
4、使用LangChain调用智谱AI模型的流程?代码结构?分析核心模块?
答:
代码解释如下:
# 步骤一 需要自定义一个大模型的文件并导入
from zhipuai_llm import ZhipuAILLM
# 步骤二 创建大模型智能体
zhipuai_model = ZhipuAILLM(model="chatglm_std", temperature=0, api_key=api_key)
# 步骤三 传入message信息,得到模型的输出信息
output = zhipuai_model.invoke(messages)
# 步骤四 定义一个输出解析器,可将输出信息类型从chatMessage类型转换为string类型
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
output_parser.invoke(output)
# 步骤五 使用LCEL语法直接连接在一起
llm = zhipuai_model
output_parser = StrOutputParser()
chain = chat_prompt | llm | output_parser
chain.invoke(prompt)
创建智能体的类,以ZhipuAI为例,如下:
class ZhipuAILLM(LLM):
# 默认选用 glm-4 模型
model: str = "glm-4"
# 温度系数
temperature: float = 0.1
# API_Key
api_key: str = None
# 创建_call函数,输入:提示词,输出模型的处理结果
def _call(self, prompt : str, stop: Optional[List[str]] = None,
run_manager: Optional[CallbackManagerForLLMRun] = None,
**kwargs: Any):
def gen_glm_params(prompt):
'''
构造 GLM 模型请求参数 messages
请求参数:
prompt: 对应的用户提示词
'''
messages = [{"role": "user", "content": prompt+"你是一个翻译助手,帮助将文字翻译成英文"}]
return messages
client = ZhipuAI(
api_key=self.api_key
)
messages = gen_glm_params(prompt)
response = client.chat.completions.create(
model = self.model,
messages = messages,
temperature = self.temperature
)
if len(response.choices) > 0:
return response.choices[0].message.content
return "generate answer error"