本地大模型编程实战(19)RAG(RetrievalAugmentedGeneration,检索增强生成)(3)
- 创业
- 2025-09-09 06:42:03

文章目录 准备创建矢量数据库对象创建 LangGraph 链将检索步骤转化为工具定义节点构建图 见证效果`qwen2.5``llama3.1``MFDoom/deepseek-r1-tool-calling:7b` 总结代码参考
上一篇文章我们演练了一个 用 langgraph 实现的 RAG(Retrieval Augmented Generation,检索增强生成) 系统。本文将要创建的系统将更加智能:如果在知识库中未找到靠谱的文档,则用 LLM(大语言模型) 自身的能力弥补。 另外,检索和生成部分增加了更多的细节控制。本次构建的 LangGraph 链如下图:
如上图,query_or_respond 是一个条件节点,它通过能否根据用户的问题生成 工具调用(tool_calls) ,来判断是否需要检索矢量知识库:如果 工具调用 为空,则直接由大语言模型处理;否则通过 工具调用 调用 tools 进行检索。
使用 qwen2.5 、 deepseek 以及 llama3.1 做实验,用 shaw/dmeta-embedding-zh 做中文嵌入和检索。
准备在正式开始撸代码之前,需要准备一下编程环境。
计算机 本文涉及的所有代码可以在没有显存的环境中执行。 我使用的机器配置为:
CPU: Intel i5-8400 2.80GHz内存: 16GBVisual Studio Code 和 venv 这是很受欢迎的开发工具,相关文章的代码可以在 Visual Studio Code 中开发和调试。 我们用 python 的 venv 创建虚拟环境, 详见: 在Visual Studio Code中配置venv。
Ollama 在 Ollama 平台上部署本地大模型非常方便,基于此平台,我们可以让 langchain 使用 llama3.1、qwen2.5、deepseek 等各种本地大模型。详见: 在langchian中使用本地部署的llama3.1大模型 。
创建矢量数据库对象我们直接使用之前使用 chroma 创建好的本地嵌入数据库,它的数据源是一个 csv 文件,每一行包含了一种动物的信息,例如:
名称,学名,特点,作用 狗,Canis lupus familiaris,忠诚、聪明、社交性强,看家护院、导盲、搜救、警务、情感陪伴 猫,Felis catus,独立、高冷、善于捕鼠,消灭害鼠、陪伴、缓解压力详细的创建过程可参见:本地大模型编程实战(14)初探智能体Agent(1)
embed_model_name = "shaw/dmeta-embedding-zh" vector_store = Chroma(persist_directory=get_persist_directory(embed_model_name),embedding_function=OllamaEmbeddings(model=embed_model_name)) 创建 LangGraph 链在上一篇文章 RAG(Retrieval Augmented Generation,检索增强生成)(2) 中,我们将用户输入、检索到的上下文和生成的答案表示为状态对象中的单独键。 除了来自用户和AI的消息之外,还可以通过工具消息将检索到的文档内容合并到消息序列中,这样我们可以使用一系列消息来表示 RAG 应用程序的状态。具体来说,我们将:
把用户输入作为 HumanMessage;把向量存储查询作为带有工具调用的 AIMessage;把检索到的文档作为 ToolMessage;最终响应作为 AIMessage。 这种状态模型非常通用,因此 LangGraph 提供了一个内置版本以方便使用: from langgraph.graph import MessagesState, StateGraph graph_builder = StateGraph(MessagesState) 将检索步骤转化为工具利用工具调用与检索步骤交互还有另一个好处,即检索查询由我们的大语言模型生成。这在对话环境中尤其重要,因为用户查询可能需要基于聊天记录进行情境化。例如,考虑以下交流:
Human:“什么是任务分解?” AI:“任务分解涉及将复杂任务分解为更小、更简单的步骤,以使代理或模型更易于管理。” Human:“常见的做法是什么?”在这种情况下,模型可以生成查询,例如:任务分解的常见方法。 由于大语言模型在生成工具调用时会智能的生成查询,那么它将会明显提升查询的准确性。它还可以生成不涉及检索步骤的直接响应(例如,响应用户的一般问候),也可以自动进行指代消解:根据上下文自动修改问题,把问题中的代词替换成上下文中的内容。
下面我们基于 检索 生成一个 工具:
@tool(response_format="content_and_artifact",parse_docstring=True) # docstring的内容对agent自动推理影响比较大 def retrieve(query: str): """检索与 query参数内容 相关的信息 Args: query: 要搜索的字符串。 """ print(f"start retrieve:{query}") # 定义相似度阈值。因为这种相似性检索并不考虑相似性大小,如果不限制可能会返回相似性不大的文档, 可能会影响问答效果。 similarity_threshold = 0.8 retrieved_docs = vector_store.similarity_search_with_score(query, k=3) # 根据相似度分数过滤结果 filtered_docs = [ doc for doc, score in retrieved_docs if score <= similarity_threshold ] serialized = "\n\n".join( (f"Source: {doc.metadata}\n" f"Content: {doc.page_content}") for doc in filtered_docs ) if not serialized: return "抱歉,我找不到任何相关信息。", None else: return serialized, filtered_docs上述检索工具完善了以下几个细节:
定义了相似度阈值:过滤掉相似度太低的文档,防止差的结果产生负面影响;如果未找到靠谱的文档,返回:“抱歉,我找不到任何相关信息。”:这个结果将会在 生成 阶段被添加到提示词中,有助于大语言模型自行推理更合理的回答。 定义节点我们的链将由三个节点组成:
一个处理用户输入的节点:要么为检索器生成查询,要么直接响应;一个用于执行检索步骤的检索器工具的节点;一个使用检索到的上下文生成最终响应的节点。 我们在下面构建它们。 请注意,我们利用另一个预先构建的 LangGraph 组件 ToolNode,它执行该工具并将结果作为 ToolMessage 添加到状态(state)。 # 1: 生成可能包含工具调用(tool_call)的 AIMessage。 def query_or_respond(state: MessagesState): """生成用于检索或响应的工具调用。""" llm_with_tools = llm.bind_tools([retrieve]) response = llm_with_tools.invoke(state["messages"]) """ 这里会自动进行指代消解:根据上下文自动修改问题,把问题中的代词替换成上下文中的内容 """ # MessagesState 将消息附加到 state 而不是覆盖 return {"messages": [response]} # 2: 执行检索 tools = ToolNode([retrieve]) # 3: 使用检索到的内容生成响应。 def generate(state: MessagesState): """生成回答。""" # 获取生成的 ToolMessages recent_tool_messages = [] for message in reversed(state["messages"]): if message.type == "tool": recent_tool_messages.append(message) else: break tool_messages = recent_tool_messages[::-1] # 获取 ToolMessages 的内容,并格式化为提示词 docs_content = "\n\n".join(doc.content for doc in tool_messages) system_message_content = ( "你是一个负责答疑任务的助手。 " "使用以下检索到的上下文来回答问题。 " "如果你不知道答案,就说你不知道。 " "最多使用三句话并保持答案简洁。 " "\n\n" f"{docs_content}" ) conversation_messages = [ message for message in state["messages"] if message.type in ("human", "system") or (message.type == "ai" and not message.tool_calls) ] prompt = [SystemMessage(system_message_content)] + conversation_messages # 执行 response = llm.invoke(prompt) # MessagesState 将消息附加到 state 而不是覆盖 return {"messages": [response]} 构建图现在,我们将节点连接起来,将应用程序编译成单个 LangGraph 对象。 第一个节点 query_or_respond 步骤可以“短路”并直接响应用户(如果它不生成工具调用)。这使我们的应用程序能够支持对话体验。 例如,响应可能不需要检索步骤的通用问候语。
def build_graph(llm_model_name): """构建 langgraph 链""" llm = ChatOllama(model=llm_model_name,temperature=0, verbose=True) # 串联节点和边,构建图 graph_builder = StateGraph(MessagesState) graph_builder.add_node(query_or_respond) graph_builder.add_node(tools) graph_builder.add_node(generate) graph_builder.set_entry_point("query_or_respond") graph_builder.add_conditional_edges( "query_or_respond", tools_condition, {END: END, "tools": "tools"}, ) graph_builder.add_edge("tools", "generate") graph_builder.add_edge("generate", END) graph = graph_builder pile() return graph 见证效果现在可以定义测试方法:
def ask(llm_model_name,question): """提问""" graph = build_graph(llm_model_name) for step in graph.stream( {"messages": [{"role": "user", "content": question}]}, stream_mode="values", ): step["messages"][-1].pretty_print()我们准备两个问题:
query1 = "马的学名是什么?它有什么用途?" query2 = "中国有多少个省份?"现在用各大模型试一下。
qwen2.5 query1 = “马的学名是什么?它有什么用途?” ================================ Human Message ================================= 马的学名是什么?它有什么用途? ================================== Ai Message ================================== Tool Calls: retrieve (729acad9-b8ae-4ed3-aa12-f48dd431d8ed) Call ID: 729acad9-b8ae-4ed3-aa12-f48dd431d8ed Args: query: 马 学名 start retrieve:马 学名 ================================= Tool Message ================================= Name: retrieve Source: {'row': 2, 'source': 'D:\\project\\programming-with-local-large-language-model\\server\\services\\practice\\assert/animals.csv'} Content: 名称: 马 学名: Equus ferus caballus 特点: 速度快、耐力强、与人类有深厚的合作关系 作用: 交通、战马、农业、体育竞技 ================================== Ai Message ================================== 马的学名是Equus ferus caballus。马的用途包括交通、作为战马、用于农业劳动以及参与体育竞技。在生成工具调用(Tool Calls),调用工具检索步骤都很稳妥,最终结果也没问题。
query2 = “中国有多少个省份?” ================================ Human Message ================================= 中国有多少个省份? ================================== Ai Message ================================== 中国的行政区划中,通常指的是34个省级行政区,包括23个省、5个自治区、4个直辖市以及香港特别行政区和澳门特别行政区。如果您需要更详细的信息或者有其他问题,请告诉我!这次生成的工具调用(Tool Calls)为空,所以调过了检索和生成步骤,直接由大语言模型返回结果了。 值得一提的是:虽然大语言模型 在 query_or_respond 函数中生成的 response 对象的工具调用(tool_calls)为空,但是 content 是有正确内容的,这说明:它还可以生成不涉及检索步骤的直接响应。 很棒!
llama3.1 query1 = “马的学名是什么?它有什么用途?” ================================ Human Message ================================= 马的学名是什么?它有什么用途? ================================== Ai Message ================================== Tool Calls: retrieve (c811874c-528f-4f17-878b-774452af14d8) Call ID: c811874c-528f-4f17-878b-774452af14d8 Args: query: 王的学名我是,常用给为为 start retrieve:王的学名我是,常用给为为 ================================= Tool Message ================================= Name: retrieve 抱歉,我找不到任何相关信息。 ================================== Ai Message ================================== 马的学名是Equus caballus。马主要用于运输、耕作和骑乘等方面。显然,它生成的工具调用(tool_calls)是错误的, retrieve 返回错误信息:“抱歉,我找不到任何相关信息。”,大模型最终还是利用自己的能力回答了问题。
query2 = “中国有多少个省份?” ================================ Human Message ================================= 中国有多少个省份? ================================== Ai Message ================================== Tool Calls: retrieve (95b0f1ca-9292-4df6-b670-64a267ef1a60) Call ID: 95b0f1ca-9292-4df6-b670-64a267ef1a60 Args: query: 中国有有二市综名 start retrieve:中国有有二市综名 ================================= Tool Message ================================= Name: retrieve 抱歉,我找不到任何相关信息。 ================================== Ai Message ================================== 中国共有34个省份。按照常理来讲,这次不应该工具调用(tool_calls)了,结果 llama3.1 还是生成了一个不靠谱的 工具调用(tool_calls)。 看起来 llama3.1 生成中文的工具调用(tool_calls)有问题。
MFDoom/deepseek-r1-tool-calling:7b query1 = “马的学名是什么?它有什么用途?” ================================ Human Message ================================= 马的学名是什么?它有什么用途? ================================== Ai Message ================================== Tool Calls: retrieve (9fcc67a2-e78e-489c-81d3-ed50688c4422) Call ID: 9fcc67a2-e78e-489c-81d3-ed50688c4422 Args: query: horse's scientific name start retrieve: horse's scientific name ================================= Tool Message ================================= Name: retrieve Source: {'row': 2, 'source': 'D:\\project\\programming-with-local-large-language-model\\server\\services\\practice\\assert/animals.csv'} Content: 名称: 马 学名: Equus ferus caballus 特点: 速度快、耐力强、与人类有深厚的合作关系 作用: 交通、战马、农业、体育竞技 ================================== Ai Message ================================== <think> 好的,我现在需要回答用户的问题:“马的学名是什么?它有什么用途?”首先,我查看提供的上下文内容。内容中提到“名称: 马”和“学名: Equus ferus caballus”。所以,马的学名应该是Equus ferus caballus。 接下来,关于用途部分,内容里列出了几点:交通、战马、农业、体育竞技。这些都是马被广泛使用的领域。因此,我需要将这些信息整合成一个简洁的回答。 最后,确保回答不超过三句话,并且保持简洁明了。这样用户就能清楚地得到学名和用途的信息。 </think> 马的学名是Equus ferus caballus。它主要用作交通工具、军事马、农业动物以及体育竞技中的赛马。不知为什么生成的 工具调用(Tool Calls)中的查询是英文,当然,最终结果不错。
query2 = “中国有多少个省份?” ================================ Human Message ================================= 中国有多少个省份? ================================== Ai Message ================================== Tool Calls: retrieve (3ce0bbec-2612-4e79-85b8-d7f9cbe0d422) Call ID: 3ce0bbec-2612-4e79-85b8-d7f9cbe0d422 Args: query: 中国有多少个省份? start retrieve:中国有多少个省份? ================================= Tool Message ================================= Name: retrieve 抱歉,我找不到任何相关信息。 ================================== Ai Message ================================== <think> 嗯,用户问的是中国有多少个省份。我记得中国有34个省份,对吧?不过有时候也会加上特别行政区和台湾地区,这样就是36个地方了。但通常在正式统计中,不包括香港和澳门,所以应该是34个省份。我应该确认一下这个数字是否正确 ,确保回答准确。 </think> 中国有34个省份。显然,针对这个问题,大语言模型不应该生成工具调用。最终检索工具未检索出靠谱的文档,大语言模型凭借自己的能力回答了问题。
总结这次我们实验了一个 通过 是否可以生成工具调用(tool_calls)作为条件来判断是否检索知识库的 RAG(Retrieval Augmented Generation,检索增强生成) 系统。 经过3个大模型的对比实验,我们发现,在处理中文工具生成这方面:qwen2.5 非常稳健。
如果您想自己实现一个包含前端和后端的 RAG 系统,从零搭建langchain+本地大模型+本地矢量数据库的RAG系统 可能对您入门有帮助。
代码
本文涉及的所有代码以及相关资源都已经共享,参见:
githubgitee为便于找到代码,程序文件名称最前面的编号与本系列文章的文档编号相同。
参考 Build a Retrieval Augmented Generation (RAG) App🪐感谢您观看,祝好运🪐
本地大模型编程实战(19)RAG(RetrievalAugmentedGeneration,检索增强生成)(3)由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“本地大模型编程实战(19)RAG(RetrievalAugmentedGeneration,检索增强生成)(3)”