深度解析ReAct范式理论与LangGraph实践,通过真实案例展示AI Agent从思考到行动的智能演进,并分享系统优化经验。
原文标题:ReAct范式深度解析:从理论到LangGraph实践
原文作者:阿里云开发者
冷月清谈:
文章通过一个智能PPT大纲生成系统的真实项目案例,生动地展示了ReAct从传统大模型方案的局限性中突围,实现了按需检索、自适应生成,显著提升了用户体验和系统性能。在此基础上,深入分析了LangGraph的内部机制,如状态驱动架构和工具绑定,并探讨了Pregel算法在底层执行引擎中的应用,展示了其在图计算优化、高效状态管理及并行执行方面的能力。
在实践层面,文章提供了宝贵的经验总结:强调了工具设计的单一职责原则、提示词工程作为AI思考引导的重要性,并对AI过度依赖工具、调用失败、循环调用等常见问题给出了解决方案。性能优化方面,通过案例说明了按需检索和并行工具调用的显著效果。文章最后通过一个极简ReAct Agent的手写实现,巩固了读者对ReAct核心机制的理解,并强调了从可控性、工具设计、状态管理、提示词调试到架构层面性能优化等ReAct范式落地成功的关键因素。
怜星夜思:
2、文章提到的LangGraph通过图计算算法Pregel实现高效的ReAct执行,听起来很厉害。除了性能,这种“图计算”的思路在Agent的复杂任务处理(比如多步骤、多工具协作)中,还能带来哪些隐藏的优势呢?是不是也能让Agent的“思考过程”更清晰?
3、提示词工程被认为是ReAct系统成功的关键。文中提到了“从规则到框架”、“从静态到动态”、“从检查清单到质量框架”的转变,这三点在实际应用中听起来有点抽象。有没有具体场景可以举例说明,这种“框架式”提示词是如何帮助AI更好地理解和执行复杂指令的?
原文内容
引言
最近在做智能解决方案系统时,我遇到了一个关键问题:如何让AI在复杂任务中既保持推理能力,又能有效执行行动?传统AI系统往往要么只能基于训练数据推理,要么只能执行固定流程,缺乏动态决策能力。
ReAct(Reasoning and Acting)范式正是为了解决这个问题而诞生的。它让AI能够交替进行推理和行动,通过"思考-行动-观察-调整"的循环,实现更智能的决策过程。
本文将解析ReAct范式的原理,分析LangGraph中的实现机制,并通过真实项目案例展示如何在实际应用中发挥ReAct的价值。
一、ReAct范式原理
1.1 ReAct概念
ReAct范式由Shunyu Yao等人在2022年的论文《ReAct: Synergizing Reasoning and Acting in Language Models》中首次提出。
ReAct的核心在于推理和行动的交替进行,而不是传统AI的"纯推理"或"纯行动"模式。
通过一个具体的天气查询例子来说明:
# 传统AI方法:要么纯推理,要么纯行动 def traditional_reasoning_only(question): """纯推理方法:仅基于训练数据回答""" return "基于我的训练数据,今天可能是晴天" def traditional_action_only(question): """纯行动方法:直接调用API,缺乏思考""" # 模拟直接调用API,没有推理过程 if "天气" in question: return "晴天,温度25°C" # 硬编码结果,没有推理 return "无法处理"ReAct方法:推理和行动交替进行
def react_approach(question):
“”“ReAct方法:推理和行动交替进行”“”
# 第1步:推理 - 分析问题
reasoning = “用户问的是今天某城市的天气,我需要查询实时天气信息”
# 第2步:行动 - 执行查询
weather_result = weather_api(“某城市”)
# 第3步:推理 - 分析查询结果
reasoning = “查询结果显示今天某城市是晴天,温度25度,这是实时准确信息”
# 第4步:行动 - 生成最终答案
return"今天某城市是晴天,温度25度,适合外出"
ReAct让AI能够在需要时主动获取信息,而不是仅依赖训练数据,同时保持推理过程的透明性。
1.2 ReAct范式为什么有效
ReAct范式之所以有效,在于它解决了传统AI方法的几个问题:
解决信息获取问题
传统AI只能依赖训练数据,ReAct让AI能够主动获取最新信息,解决知识时效性问题。
实现推理与行动的结合
不是简单的"先推理后行动",而是推理和行动的交替进行,让AI能够根据中间结果调整策略。
保持推理过程透明
每个行动都有明确的推理依据,推理过程完全可见,便于调试和理解AI的决策逻辑。
支持复杂协作
通过工具调用机制,ReAct可以处理需要多步骤、多工具协作的复杂任务场景。
1.3 ReAct的设计理念
ReAct范式不仅仅是一个技术方案,它反映了AI系统设计理念的转变:
从"黑盒AI"到"透明AI"
传统AI的决策过程是黑盒的,用户无法理解AI为什么做出某个决定。ReAct让AI的思考过程变得透明,每个行动都有明确的推理依据,这带来了理解与信任。
从"静态AI"到"动态AI"
传统AI只能基于训练时的静态数据,无法适应新情况。ReAct让AI能够主动获取最新信息,根据实际情况动态调整策略,实现了学习与适应。
从"单一AI"到"协作AI"
传统AI往往是孤立的,无法与其他系统协作。ReAct通过工具调用机制,让AI能够与其他系统协作,实现了扩展与创新。
理解了ReAct的原理后,你可能会想:如何在项目中实现这种"推理-行动"的循环?比如,如何让AI在需要时主动调用工具,如何管理整个对话状态,如何控制循环的结束条件?LangGraph就是专门解决这些问题的框架。
二、LangGraph中的ReAct实现机制
2.1 什么是LangGraph?
LangGraph是LangChain团队开发的用于构建AI Agent的框架。它的思想是:将AI Agent的执行过程抽象为一个有向图。
LangGraph的核心特性:
1.图结构:将AI逻辑抽象为节点和边的图;
2.状态驱动:系统围绕状态对象运行;
3.条件路由:根据状态决定下一步执行路径;
2.2 LangGraph如何实现ReAct?
通过一个完整的例子来理解LangGraph如何实现ReAct范式:
from langgraph.prebuilt import create_react_agent from langchain_core.tools import tool from langchain_ollama import ChatOllama from langchain_core.messages import HumanMessage1. 定义工具
@tool
def search_weather(location: str) -> str:
“”“搜索指定地点的天气信息”“”
# 模拟天气查询API
weather_data = {
“A城市”: “晴天,温度25°C,湿度60%”,
“B城市”: “多云,温度22°C,湿度70%”
}
return weather_data.get(location, f"{location}的天气信息暂时无法获取")@tool
def calculate_distance(city1: str, city2: str) -> str:
“”“计算两个城市之间的距离”“”
# 模拟距离计算API
distances = {
(“A城市”, “B城市”): “约500公里”,
(“B城市”, “A城市”): “约500公里”
}
return distances.get((city1, city2), f"{city1}到{city2}的距离信息暂时无法获取")2. 创建模型
model = ChatOllama(model=“qwen3:8b”, temperature=0.1)
3. 创建ReAct Agent
agent = create_react_agent(
model=model,
tools=[search_weather, calculate_distance],
prompt=“你是一个天气助手,可以帮助用户查询天气和计算距离。”,
version=“v2”
)4. 使用Agent
result = agent.invoke({
“messages”: [HumanMessage(content=“A城市和B城市的天气怎么样?距离有多远?”)]
})
LangGraph的简洁性体现在:几行代码就创建了一个完整的ReAct Agent,系统自动判断是否需要调用工具,消息历史自动维护,工具调用完全透明。
2.3 LangGraph的内部机制
让我们深入看看create_react_agent内部是如何工作的:
核心实现逻辑:
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
def create_react_agent(
model: BaseChatModel,
tools: Sequence[BaseTool],
prompt: Optional[BaseMessage] = None,
response_format: Optional[Union[Dict, Type[BaseModel]]] = None,
pre_model_hook: Optional[Callable] = None,
post_model_hook: Optional[Callable] = None,
state_schema: Optional[Type[TypedDict]] = None,
version: Literal["v1", "v2"] = "v2",
) -> CompiledGraph:
"""创建ReAct Agent的核心实现"""
# 1. 定义状态结构
class AgentState(TypedDict):
messages: Annotated[Sequence[BaseMessage], add_messages]
remaining_steps: NotRequired[RemainingSteps]
# 2. 创建图结构
workflow = StateGraph(AgentState)
# 3. 定义节点
def agent_node(state: AgentState):
"""Agent节点:调用模型进行推理"""
model_with_tools = model.bind_tools(tools)
response = model_with_tools.invoke(state["messages"])
return {"messages": [response]}
def tools_node(state: AgentState):
"""工具节点:执行工具调用"""
return tool_node.invoke(state)
# 4. 定义路由逻辑
def should_continue(state: AgentState) -> str:
"""判断是否需要继续执行工具"""
last_message = state["messages"][-1]
if hasattr(last_message, 'tool_calls') and last_message.tool_calls:
return"tools"
return"end"
# 5. 组装图结构
workflow.add_node("agent", agent_node)
workflow.add_node("tools", tools_node)
workflow.add_conditional_edges(
"agent",
should_continue,
{"tools": "tools", "end": END}
)
workflow.add_edge("tools", "agent")
return workflow.compile()
2.4 关键设计思想
1. 状态驱动架构
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
# 状态是系统的核心
class AgentState(TypedDict):
messages: Annotated[Sequence[BaseMessage], add_messages] # 消息历史
remaining_steps: NotRequired[RemainingSteps] # 剩余步数
状态包含所有必要信息,支持断点续传,便于调试和监控。
2. 条件路由机制
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
def should_continue(state: AgentState) -> str:
"""智能路由决策"""
last_message = state["messages"][-1]
ifhasattr(last_message, 'tool_calls')and last_message.tool_calls:
return "tools" # 需要工具
return "end" # 直接结束
基于内容而非规则,支持复杂决策逻辑,易于扩展和修改。
3. 工具绑定机制
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
# 工具绑定到模型
model_with_tools = model.bind_tools(tools)
response = model_with_tools.invoke(messages)
工具调用对AI透明,支持并行工具调用,提供统一的工具接口。
2.5 实际运行示例
让我们看一个完整的运行过程:
执行流程图:
2.6 设计特点总结
LangGraph的设计有几个特点:
简单易用:几行代码创建Agent,自动处理状态管理,路由决策。
灵活:支持自定义工具,可扩展的图结构,钩子机制。
性能优化:并行工具调用,状态增量更新,缓存机制。
易于调试:执行日志,状态可视化,错误追踪。
create_react_agent是LangGraph中的重要函数,它封装了ReAct范式的实现。
三、create_react_agent源码解析
3.1 实现逻辑
# 文件路径: libs/prebuilt/langgraph/prebuilt/chat_agent_executor.py
def create_react_agent(
model: Union[str, LanguageModelLike, Callable],
tools: Union[Sequence[BaseTool], ToolNode],
prompt: Optional[Prompt] = None,
response_format: Optional[StructuredResponseSchema] = None,
state_schema: Optional[StateSchemaType] = None,
version: Literal["v1", "v2"] = "v2",
) -> CompiledStateGraph:
"""
创建ReAct Agent的核心函数
参数说明:
- model: 语言模型实例
- tools: 工具列表或工具节点
- prompt: 自定义提示词
- response_format: 结构化输出格式
- state_schema: 状态模式
- version: 版本选择
"""
关键设计点:
1. 状态模式的动态选择
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
if state_schema is None:
state_schema = (
AgentStateWithStructuredResponse
if response_format is not None
else AgentState
)
简单场景使用基础状态,复杂场景支持结构化输出,避免了过度设计。
2. 工具绑定的智能判断
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
if _should_bind_tools(model, tool_classes, num_builtin=len(llm_builtin_tools)):
model = model.bind_tools(tool_classes + llm_builtin_tools)
能自动判断模型是否需要绑定工具,处理不同类型的工具,用户不需要关心技术细节。
3. 路由逻辑的单一职责
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
def should_continue(state: StateSchema) -> Union[str, list[Send]]:
messages = _get_state_value(state, "messages")
last_message = messages[-1]
ifnot isinstance(last_message, AIMessage) ornot last_message.tool_calls:
return END
else:
return"tools"
只负责路由决策,基于内容而非规则,支持扩展(钩子、结构化输出)。
3.2 设计原理深度分析
1. 状态管理的设计思路
# 传统方法:全局状态,难以管理 classTraditionalAgent: def __init__(self): self.messages = [] self.tool_results = [] self.current_step = 0 # ... 更多状态变量LangGraph方法:状态模式,类型安全
文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
class AgentState(TypedDict):
messages: Annotated[Sequence[BaseMessage], add_messages]
remaining_steps: NotRequired[RemainingSteps]
LangGraph使用TypedDict确保状态类型安全,使用Annotated提供状态更新策略,让状态管理既安全又灵活。
2. 条件路由的智能实现
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
def should_continue(state: AgentState) -> str:
messages = state["messages"]
last_message = messages[-1]
# 关键设计:不是检查所有消息,而是只检查最后一条
if isinstance(last_message, AIMessage) and last_message.tool_calls:
return"tools"
return"end"
只检查最后一条消息,避免了遍历整个消息历史,性能更好,逻辑更清晰。
3. 工具绑定的统一抽象
# 文件路径: libs/langgraph/langgraph/prebuilt/agent_executor.py
# 核心设计:工具绑定到模型,而不是单独管理
model_with_tools = model.bind_tools(tools)
response = model_with_tools.invoke(state["messages"])
通过工具绑定机制,让AI能够调用工具而不需要了解工具的具体实现细节。
1. 复杂性管理
ReAct系统天然复杂,但通过精妙的设计,让复杂性变得可控。
2. 可扩展性
基础功能保持简洁,复杂需求通过扩展支持。
3. 可理解性
通过声明式的图结构,开发者可以直观地理解系统行为。
了解 LangGraph的设计原理后,让我们通过一个真实的项目案例来看看ReAct在实际应用中的价值。这个案例来自智能解决方案系统,其中PPT生成大纲是其中的一个重点能力。
四、真实项目案例:智能解决方案系统
4.1 项目背景:为什么选择ReAct?
在智能解决方案系统中,我选择使用ReAct范式构建智能大纲生成Agent。这个决策背后有一个真实的踩坑故事:
第一阶段:纯大模型方案的问题
# 最初的简单方案
def generate_outline(user_input):
"""纯大模型方案:直接生成PPT大纲"""
prompt = f"""
用户需求:{user_input}
请生成一份完整的PPT大纲,包含:
1. 封面页
2. 目录页
3. 产品介绍
4. 功能特性
5. 应用案例
6. 总结页
"""
return llm.invoke(prompt)
问题暴露:
-
客户信息不准确:大模型不知道具体的客户背景;
-
产品信息过时:内部产品信息无法实时更新;
-
用户需求不明确:用户可能只需要某几页,不需要完整PPT;
第二阶段:增加知识检索的尝试
# 改进方案:增加知识检索
def generate_outline_with_knowledge(user_input):
# 检索客户信息
customer_info = search_customer_knowledge(user_input)
# 检索产品信息
product_info = search_product_knowledge(user_input)
# 检索行业信息
industry_info = search_industry_knowledge(user_input)
prompt = f"""
用户需求:{user_input}
客户信息:{customer_info}
产品信息:{product_info}
行业信息:{industry_info}
请生成一份完整的PPT大纲...
"""
return llm.invoke(prompt)
新问题出现:
-
信息过载:每次都要检索大量信息,即使不需要;
-
固化输出:总是生成"完整"的PPT大纲;
-
用户体验差:用户说"我只要3页介绍产品功能",却生成了20页的完整大纲;
能不能让AI像人类一样,先分析用户真正需要什么,再决定要不要检索信息,检索什么信息,生成什么样的结构?
第三阶段:ReAct范式的解决方案
# ReAct方案:智能判断
def react_outline_generation(user_input):
# 1. 推理:分析用户真正需要什么
reasoning = analyze_user_intent(user_input)
# 2. 行动:根据推理结果决定是否检索
if reasoning.needs_customer_info:
customer_info = search_customer_knowledge(user_input)
if reasoning.needs_product_info:
product_info = search_product_knowledge(user_input)
# 3. 观察:基于检索结果调整策略
# 4. 调整:生成符合用户真实需求的大纲
return generate_adaptive_outline(reasoning, retrieved_info)
关键点:ReAct让AI能够像人一样,在不确定的情况下做出明智的决策。
-
分析用户需求(客户背景、产品需求、行业特点);
-
收集相关信息(行业趋势、竞品分析、产品特性);
-
生成结构化的PPT大纲;
-
确保内容质量和业务价值;
4.2 系统架构深度解析:基于真实需求的架构演进
基于我在PPT生成项目中的真实落地经验,下面是SmartOutlineReActAgent的架构设计演进过程:
架构演进历程:
核心设计决策:
1.智能判断层:分析用户意图,决定是否需要检索;
2.按需检索层:根据判断结果,选择性检索信息;
3.自适应生成层:基于检索结果,生成个性化大纲;
架构设计经验:
架构设计采用分层解耦设计,工具、提示词、执行引擎完全解耦,便于独立优化。整个执行过程由状态变化驱动,支持断点续传。通过通用工具 + 专业工具的分层设计,既保证通用性又满足专业性。同时需要从输入到输出的完整监控体系,确保系统稳定性。
classSmartOutlineReActAgent:
"""智能大纲生成ReAct Agent - 核心设计思路"""
def __init__(self):
# 核心组件:工具 + 模型 + Agent
self.tools = self._load_tools() # 分层工具设计
self.llm = self._init_llm() # 模型初始化
self.agent = self._create_react_agent() # ReAct Agent
def _load_tools(self):
"""工具分层设计:通用工具 + 专业工具"""
general_tools = load_general_tools() # 时间、搜索等
internal_tools = load_internal_tools() # 内部知识库
return general_tools + internal_tools
def _create_react_agent(self):
"""构建ReAct Agent - 核心执行引擎"""
return create_react_agent(
model=self.llm,
tools=self.tools,
prompt=self.system_prompt,
version="v2" # 支持并行工具调用
)
def generate_outline(self, user_input: str) -> str:
"""生成PPT大纲 - 核心业务逻辑"""
# 1. 构建输入
messages = [HumanMessage(content=user_input)]
# 2. 执行ReAct循环
result = self.agent.invoke({
"messages": messages,
"recursion_limit": 50,
"max_iterations": 20
})
# 3. 返回结果
return result["messages"][-1].content
核心设计思路:
1.分层架构:工具、模型、Agent各司其职;
2.工具生态:通用工具 + 专业工具的分层设计;
3.执行引擎:ReAct循环 + 智能路由;
4.业务逻辑:输入 → 推理 → 行动 → 输出;
4.3 create_react_agent运行原则浅析
接下来先简单了解一下create_react_agent的内部实现,以便理解其内在的设计思路:
核心实现分析:
def create_react_agent(model, tools, prompt=None, version="v2"):
"""创建ReAct Agent的核心实现"""
# 1. 状态模式定义
class AgentState(TypedDict):
messages: Annotated[Sequence[BaseMessage], add_messages]
remaining_steps: int
# 2. 图结构构建
workflow = StateGraph(AgentState)
# 3. 节点定义
def agent_node(state: AgentState):
"""Agent节点 - 核心推理引擎"""
# 绑定工具到模型
model_with_tools = model.bind_tools(tools)
# 调用模型
response = model_with_tools.invoke(state["messages"])
return {"messages": [response]}
def tools_node(state: AgentState):
"""Tools节点 - 工具执行引擎"""
if version == "v1":
# v1版本:串行执行所有工具
return tool_node.invoke(state)
else:
# v2版本:并行执行工具(使用Send API)
return tool_node.invoke(state)
# 4. 条件路由逻辑
def should_continue(state: AgentState) -> str:
"""智能路由决策"""
messages = state["messages"]
last_message = messages[-1]
# 检查是否包含工具调用
if isinstance(last_message, AIMessage) and last_message.tool_calls:
return"tools"
return"end"
# 5. 图结构组装
workflow.add_node("agent", agent_node)
workflow.add_node("tools", tools_node)
workflow.add_conditional_edges(
"agent",
should_continue,
{"tools": "tools", "end": END}
)
workflow.add_edge("tools", "agent")
# 6. 编译并返回
return workflow.compile()
LangGraph不是简单的工具链,而是一个能够"思考"的智能系统。它通过状态管理让Agent记住整个对话过程,通过条件路由让Agent能够根据当前情况智能选择下一步,通过循环控制让Agent能够反思和优化结果。
让Agent从"执行者"变成了"思考者",能够处理复杂的多轮对话和动态决策场景。
4.4 LangGraph底层执行引擎深度分析
继续深入分析LangGraph的底层执行机制,理解其如何实现高效的ReAct执行:
核心执行机制分析:
# LangGraph底层执行引擎核心代码分析
classPregel:
"""LangGraph的核心执行引擎 - 基于Pregel算法"""
def __init__(self, nodes: Dict[str, Any], edges: List[Edge]):
self.nodes = nodes
self.edges = edges
self.state_schema = self._build_state_schema()
def invoke(self, inputs: Dict[str, Any]) -> Dict[str, Any]:
"""执行图的核心方法"""
# 1. 状态初始化
state = self._initialize_state(inputs)
# 2. 执行循环
whilenot self._is_complete(state):
# 3. 节点调度
next_nodes = self._get_next_nodes(state)
# 4. 并行执行节点
updates = self._execute_nodes_parallel(next_nodes, state)
# 5. 状态更新
state = self._update_state(state, updates)
# 6. 检查终止条件
if self._should_terminate(state):
break
return state
def _execute_nodes_parallel(self, nodes: List[str], state: Dict) -> Dict:
"""并行执行多个节点 - 性能优化的关键"""
import asyncio
async def execute_node(node_name: str):
node_func = self.nodes[node_name]
return await node_func(state)
# 并行执行所有节点
tasks = [execute_node(node) for node in nodes]
results = asyncio.gather(*tasks)
return self._merge_results(results)
def _get_next_nodes(self, state: Dict) -> List[str]:
"""智能节点调度 - 基于条件路由"""
next_nodes = []
for edge in self.edges:
if edge.condition(state):
next_nodes.append(edge.target)
return next_nodes
执行引擎的关键特性:
1.图计算优化:基于图计算算法,支持大规模并行计算;
2.状态管理高效:增量状态更新,避免全量状态复制;
3.节点调度智能:基于条件路由的智能节点调度;
4.并行执行支持:支持多个节点的并行执行,提升性能;
5.错误恢复机制:完整的错误处理和恢复机制;
4.5 工具设计原则
基于实际项目经验,我总结出以下工具设计的核心原则:
实战案例:基于真实需求的工具设计
基于智能解决方案系统的真实需求,设计以下工具:
# 工具1:内部知识库搜索 - 解决信息获取问题 def search_internal_knowledge(query: str, knowledge_type: str = "all") -> str: """按需检索,避免信息过载""" # 根据知识类型选择性搜索 if knowledge_type == "customer": results = customer_knowledge_base.search(query, limit=3) elif knowledge_type == "product": results = product_knowledge_base.search(query, limit=3) else: results = knowledge_base.search(query, limit=5) # 返回原始数据,让AI自己判断如何使用 return format_search_results(results)工具2:用户意图分析 - 解决"固化输出"问题
def analyze_user_intent(user_input: str) -> str:
“”“让AI理解用户的真实需求”“”
intent = {
“needs_customer_info”: “客户” in user_input,
“needs_product_info”: “产品” in user_input,
“output_scope”: “partial"if"只要” in user_input else"full",
“page_count”: extract_page_count(user_input)
}
return json.dumps(intent)
工具设计经验:
工具设计需要考虑职责边界、数据流纯净性、错误处理、性能优化和可观测性。每个工具都有明确的输入输出和职责范围,只负责数据获取和格式化,不进行业务逻辑处理。同时需要完善的异常处理、频率控制、并行调用等性能优化,以及完整的日志记录和监控指标。
# 工具设计核心原则 """ 1. 工具只负责获取信息,不负责分析 2. 工具只提供数据,不提供结论 3. 工具支持LLM推理,不替代LLM推理 4. 保持工具简单、纯净、单一职责 """@tool
def web_search(query: str) -> str:
“”“获取互联网最新信息”“”
return search_engine.search(query)
@tool
def search_internal_knowledge(query: str) -> str:
“”“获取内部文档和知识”“”
return knowledge_base.search(query)
工具设计原则:
工具设计要遵循单一职责原则,每个工具只做一件事,做好一件事。工具只提供原始数据,不进行业务逻辑处理,同时需要优雅地处理各种异常情况,支持并行调用和缓存机制。
4.6 提示词工程设计
在实际项目中,我发现提示词工程是ReAct系统成功的关键因素。经过大量踩坑和调试,我总结出了一套提示词工程方法论:
4.6.1 核心工作原则设计
问题:传统的提示词往往过于僵化,无法适应复杂的业务场景;
解决方案:设计启发式指导框架,让Agent能够自主思考和决策;
4.6.2 提示词工程经验
从规则到框架的转变
传统提示词:"如果遇到X情况,执行Y操作"
优化后提示词:"分析当前情况,基于以下框架自主决策..."
从静态到动态的转变
传统提示词:"按照以下步骤执行"优化后提示词:"根据实际情况,灵活调整执行策略"
从检查清单到质量框架的转变
传统提示词:"确保包含以下要素:A、B、C"
优化后提示词:"评估内容质量,确保达到以下标准..."
4.6.3 实践中的关键经验
经验1:提示词不是指令,而是思考引导
经验2:建立质量评估框架,而不是检查清单
经验3:场景适配比通用模板更重要
4.6.4 提示词优化的关键原则
启发式指导而非僵化规则
灵活策略而非固定流程
质量框架而非检查清单
4.7 常见问题与解决方案
AI过度依赖工具
# 解决方案:在提示词中强调判断能力
prompt = """
你是一个智能助手。当用户问题简单明确时,可以直接回答;
当需要外部信息时,才调用相关工具。
请根据问题的复杂度和信息需求,合理选择处理方式。
"""
工具调用失败处理
# 解决方案:优雅的错误处理
def robust_tool_call(tool_name, tool_input):
try:
result = tool_name.invoke(tool_input)
return result
except Exception as e:
return f"工具调用失败:{str(e)},让我尝试其他方法"
循环调用问题
# 解决方案:设置最大迭代次数
classReActAgent:
def __init__(self, max_iterations=5):
self.max_iterations = max_iterations
self.current_iteration = 0
def should_continue(self, state):
self.current_iteration += 1
if self.current_iteration >= self.max_iterations:
return"end"
# 其他逻辑...
4.8 性能优化实践
在智能解决方案系统中,我遇到了几个关键的性能问题,这些问题直接影响了用户体验:
信息过载导致的性能问题
# 问题:每次都要检索大量信息,即使不需要 def generate_outline_with_knowledge(user_input): # 问题:无论用户需要什么,都检索所有信息 customer_info = search_customer_knowledge(user_input) # 耗时2-3秒 product_info = search_product_knowledge(user_input) # 耗时2-3秒 industry_info = search_industry_knowledge(user_input) # 耗时2-3秒 # 总耗时:6-9秒,用户体验很差 return generate_outline(customer_info, product_info, industry_info)解决方案:ReAct智能判断
def react_outline_generation(user_input):
# 1. 先分析用户意图
intent = analyze_user_intent(user_input)
# 2. 按需检索
retrieved_info = {}
if intent.needs_customer_info:
retrieved_info[“customer”] = search_customer_knowledge(user_input)
if intent.needs_product_info:
retrieved_info[“product”] = search_product_knowledge(user_input)
if intent.needs_industry_info:
retrieved_info[“industry”] = search_industry_knowledge(user_input)
# 3. 基于检索结果生成大纲
return generate_adaptive_outline(intent, retrieved_info)
固化输出导致的用户体验问题
# 问题:总是生成"完整"的PPT大纲 用户说:"我只要3页介绍产品功能" 系统回答:生成20页的完整PPT大纲 # 用户体验差解决方案:智能判断输出范围
def generate_adaptive_outline(intent, retrieved_info):
if intent.output_scope == “partial”:
# 只生成用户需要的部分
return generate_partial_outline(intent.focus_areas, retrieved_info)
elif intent.output_scope == “full”:
# 生成完整大纲
return generate_full_outline(retrieved_info)
else:
# 根据页数要求生成
return generate_specific_outline(intent.page_count, retrieved_info)
工具调用频率过高
1. 智能配置管理
def get_adaptive_config(task_complexity: str) -> Dict[str, Any]:
configs = {
"simple": {
"recursion_limit": 20,
"max_iterations": 10,
"timeout": 30
},
"complex": {
"recursion_limit": 50,
"max_iterations": 25,
"timeout": 120
}
}
return configs.get(task_complexity, configs["simple"])
2. 工具并行调用
# 支持并行工具调用
def parallel_tool_calls(tools: List[BaseTool], inputs: List[Dict]) -> List[str]:
import asyncio
async def call_tool(tool, input_data):
return await tool.ainvoke(input_data)
tasks = [call_tool(tool, input_data) for tool, input_data in zip(tools, inputs)]
return asyncio.run(asyncio.gather(*tasks))
3. 调用频率控制
import time from collections import defaultdictclassRateLimiter:
def init(self, max_calls_per_minute=60):
self.max_calls = max_calls_per_minute
self.calls = defaultdict(list)
def can_call(self, tool_name: str) -> bool:
now = time.time()
# 清理1分钟前的调用记录
self.calls[tool_name] = [t for t in self.calls[tool_name] if now - t < 60]
return len(self.calls[tool_name]) < self.max_calls
def record_call(self, tool_name: str):
self.calls[tool_name].append(time.time())创建全局频率限制器实例
rate_limiter = RateLimiter()
4.9 错误处理与监控
def _handle_state_update(self, data: Any, step_count: int, outline_id: str, source: str = "", message_context: Dict[str, Any] = None):
# 处理工具调用开始
ifisinstance(last_message, AIMessage)and last_message.tool_calls:
for tool_call in last_message.tool_calls:
send_outline_tool_call_start(
outline_id=outline_id,
tool_name=tool_name,
tool_args=tool_args,
step_count=step_count
)
# 处理工具调用完成
elif isinstance(last_message, ToolMessage):
if is_error:
send_outline_tool_call_error(...)
else:
send_outline_tool_call_complete(...)
监控体系设计:
1.全链路监控:从任务开始到完成的完整监控;
2.实时日志:详细的执行日志和状态更新;
3.错误追踪:完整的错误信息和堆栈跟踪;
4.性能指标:执行时间、工具调用次数、成功率等;
通过智能PPT生成系统的实践,我们积累了大量的优化经验,掌握了这些经验后,接下来我们回到基础,通过手写实现来深入理解ReAct的机制。
五、手写实践:从零构建ReAct Agent
经过前面的理论学习和源码分析,现在动手实现一个简化版的ReAct Agent。这个实现虽然功能简单,但包含了ReAct范式的要素。
5.1 核心实现代码
# 手写ReAct Agent # 安装:pip install langchain langchain-ollamafrom langchain_ollama import ChatOllama
from langchain_core.messages import HumanMessage, AIMessage, ToolMessage
from typing import Dict, List, Any, Optional
import re
import timeclassMiniReActAgent:
“”“手写ReAct Agent “””
def init(self):
self.model = ChatOllama(model=“qwen3:8b”, temperature=0.1)
self.tools = {
“time”: self._get_time,
“calc”: self._calculate,
“search”: self._search
}
# 状态管理
self.state = {
“messages”: ,
“current_step”: “start”,
“tool_results”: {},
“reasoning”: “”
}
def _get_time(self, param=“”):
“”“获取当前时间”“”
import datetime
now = datetime.datetime.now()
return f"现在是{now.strftime(‘%Y年%m月%d日 %H:%M’)}"
def _calculate(self, expression: str):
“”“安全计算表达式”“”
try:
ifnot re.match(r’[1]+$‘, expression):
return “计算错误:表达式包含非法字符”
return str(eval(expression))
except:
return “计算错误:表达式无效”
def _search(self, query: str):
“”“模拟搜索功能”“”
return f"关于’{query}‘的搜索结果…"
def should_continue(self, state: Dict) -> str:
“”“条件路由 “””
last_message = state[“messages”][-1] if state[“messages”] else None
# 检查AI回复中是否包含工具调用
if isinstance(last_message, AIMessage):
content = last_message.content
if “工具:” in content and “参数:” in content:
return “tools” # 需要工具
return “end” # 直接结束
def agent_node(self, state: Dict) -> Dict:
“”“Agent节点 “””
# 构建工具描述 - 让AI知道有哪些工具可用
tool_descriptions =
for tool_name, tool_func in self.tools.items():
if tool_name == “time”:
tool_descriptions.append(“time: 获取当前时间(无需参数)”)
elif tool_name == “calc”:
tool_descriptions.append(“calc: 计算数学表达式(需要表达式参数)”)
elif tool_name == “search”:
tool_descriptions.append(“search: 搜索信息(需要搜索关键词)”)
# 构建提示词
last_message = state[“messages”][-1].content
# 检查是否有工具执行结果
if “工具执行结果:” in last_message:
# 基于工具结果继续推理
prompt = f"“”
用户问题: {state[‘messages’][0].content}
工具执行结果: {last_message}
请基于工具执行结果回答用户问题。
如果还需要更多信息,请回答: 工具: [工具名] 参数: [参数]
如果信息足够,请直接回答用户问题。
“”"
else:
# 初始推理
prompt = f"“”
用户问题: {last_message}
可用工具: {’, ‘.join(tool_descriptions)}
请分析问题并决定是否需要使用工具。
如果需要工具,请回答: 工具: [工具名] 参数: [参数]
注意:time工具无需参数,直接写"工具: time 参数: 无"
如果不需要工具,请直接回答用户问题。
“”"
# 调用模型
response = self.model.invoke([HumanMessage(content=prompt)])
# 更新状态
new_state = state.copy()
new_state[“messages”] = state[“messages”] + [AIMessage(content=response.content)]
new_state[“current_step”] = “agent”
return new_state
def tools_node(self, state: Dict) -> Dict:
“”“Tools节点 “””
last_message = state[“messages”][-1]
if isinstance(last_message, AIMessage):
content = last_message.content
# 解析工具调用
if “工具:” in content and “参数:” in content:
# 提取工具名和参数
tool_match = re.search(r’工具:\s*(\w+)’, content)
param_match = re.search(r’参数:\s*(.+)', content)
if tool_match and param_match:
tool_name = tool_match.group(1)
param = param_match.group(1).strip()
# 执行工具
if tool_name in self.tools:
# 处理time工具的无参数调用
if tool_name == “time” and (param == “无” or param == “” or param == “”):
result = self.toolstool_name
else:
result = self.toolstool_name
# 更新状态
new_state = state.copy()
new_state[“messages”] = state[“messages”] + [AIMessage(content=f"工具执行结果: {result}“)]
new_state[“current_step”] = “tools”
return new_state
return state
def react_cycle(self, question: str):
“”“ReAct核心循环 “””
print(f"用户问题: {question}”)
# 初始化状态
self.state = {
“messages”: [HumanMessage(content=question)],
“current_step”: “start”,
“tool_results”: {},
“reasoning”: “”
}
# 执行循环
max_iterations = 5
for i in range(max_iterations):
print(f"\n— 第{i+1}轮执行 —“)
# 1. Agent节点
self.state = self.agent_node(self.state)
print(f"Agent推理: {self.state[‘messages’][-1].content}”)
# 2. 条件路由
next_step = self.should_continue(self.state)
print(f"路由决策: {next_step}“)
if next_step == “tools”:
# 3. Tools节点
self.state = self.tools_node(self.state)
print(f"工具执行结果: {self.state[‘messages’][-1].content}”)
# 4. 继续下一轮推理
continue
else:
# 5. 结束
print(“执行完成”)
break
return self.state[“messages”][-1].content使用示例
if name == “main”:
agent = MiniReActAgent()
# 测试不同场景
agent.react_cycle(“现在几点了?”)
print(“\n” + “=”*50 + “\n”)
agent.react_cycle(“计算 15 + 27”)
print(“\n” + “=”*50 + “\n”)
agent.react_cycle(“什么是人工智能?”)
运行效果展示:
从运行截图可以看到,这个极简ReAct Agent展现了ReAct范式的工作原理:当用户问"现在几点了?"时,Agent会推理出需要调用时间工具;当用户问"什么是人工智能?"时,Agent会直接回答而不调用工具。整个示例代码实现了推理→行动→观察→回答的完整循环。
5.2 从手写实现到生产系统的思考
手写实现确实能够帮助我们对ReAct有了更深的理解。但说实话,真正要在项目中使用,这个简化版本还远远不够。
ReAct的"推理-行动-观察"循环看起来简单,但实现起来需要考虑很多细节。状态管理、工具调用、错误处理,每个环节都有坑。
在实际项目中,你需要考虑状态类型安全、工具调用失败、模型调用超时、内存管理等问题。这些细节处理不好,系统就会不稳定。
这就是为什么需要LangGraph这样的框架。它把这些复杂性都处理好了,让我们能够专注于业务逻辑。
六、总结
在做智能解决方案系统的这段时间,我踩了不少坑,也学到了一些东西。ReAct范式确实在Agent落地方面解决了很多实际问题,总结下来主要是这个方面:
可控性比智能性更重要
用户说"只要3页",AI如果生成20页,即使内容再好,用户体验也是失败的。问题的根源在于AI的决策过程不透明,用户无法知道AI为什么生成了20页。ReAct让AI的思考过程变得透明,用户可以看到AI的推理过程,从而控制输出。这比让它变得更聪明更有价值。
工具设计决定系统上限
工具不是简单的API调用,而是AI的"手"和"眼"。设计工具时需要考虑灵活性、信息完整性和错误恢复能力。
状态管理是复杂系统的核心
LangGraph的图状态模型证明,复杂系统不是靠复杂的逻辑,而是靠清晰的状态转换。
从小做起
先实现一个最简单的ReAct Agent,让它能处理一个具体场景,再逐步增加复杂度。不要一开始就想着做复杂系统。
提示词需要反复调试
明确AI的角色和职责,提供清晰的决策标准,包含错误处理机制。这部分需要大量测试和调整。
性能优化从架构开始
在智能解决方案系统中,按需检索比全量检索快3倍,这就是架构设计的价值。这个例子说明,性能问题往往不是代码实现问题,而是架构设计问题。类似的还有缓存策略、并行处理、数据分片等,都需要从架构层面考虑。
技术选型的平衡
ReAct范式虽然强大,但并不是万能的。在实际项目中,需要根据任务复杂度选择合适的方案:简单任务用直接API调用,复杂但确定的任务用workflow编排,只有真正需要动态推理和工具调用的场景才使用ReAct。技术选型要务实,避免为了使用新技术而过度设计。
有些问题用ReAct解决得很好,有些问题用传统方法更简单。重要的是理解其原理,然后根据实际情况选择合适的技术方案。
以上是本篇的全部内容,希望对你有帮助。
参考文献:
核心论文
1.ReAct: Synergizing Reasoning and Acting in Language Models - Shunyu Yao, Jeffrey Zhao, David Yu, et al. (2022):https://arxiv.org/pdf/2210.03629
2.Toolformer: Language Models Can Teach Themselves to Use Tools - Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, et al. (2023):https://arxiv.org/pdf/2302.04761
3.Tool Learning with Foundation Models - Yujia Qin, Shengding Hu, Ning Ding, et al. (2023):https://arxiv.org/pdf/2304.08354
4.Pregel: A System for Large-Scale Graph Processing - Grzegorz Malewicz, Matthew H. Austern, et al. (2010):https://dl.acm.org/doi/10.1145/1807167.1807184
官方文档
1.LangGraph Documentation - LangChain:https://langchain-ai.github.io/langgraph/
2.LangChain Documentation - LangChain:https://python.langchain.com/
3.LangGraph GitHub Repository - LangChain:https://github.com/langchain-ai/langgraph
相关技术文章
1.Building LLM Applications for Production - LangChain Blog:https://blog.langchain.dev/
开源项目
1.LangGraph Examples - GitHub:https://github.com/langchain-ai/langgraph/tree/main/examples
企业级分布式应用服务 EDAS
企业级分布式应用服务EDAS(Enterprise Distributed Application Service)是一个应用PaaS平台,一站式集成微服务、可观测、任务调度等技术;以专业易用的应用全生命周期管理、流量及容量治理等功能,配合业务视角的验收、资源管控与成本优化能力,助力企业应用架构云原生化升级。
点击阅读原文查看详情。
0-9+-*/.() ↩︎

















