如何强制工具调用代理结构化输出¶
您可能希望您的代理以结构化格式返回其输出。例如,如果代理的输出被一些其他下游软件使用,您可能希望每次调用代理时输出都采用相同的结构化格式,以确保一致性。
本笔记本将介绍两种不同的选项,用于强制工具调用代理结构化其输出。我们将使用基本的 ReAct 代理(一个模型节点和一个工具调用节点),以及末尾的第三个节点,该节点将为用户格式化响应。这两个选项都将使用下图所示的相同图结构,但底层机制会有所不同。
选项 1
强制工具调用代理具有结构化输出的第一种方法是将您想要的输出绑定为 agent
节点的附加工具。与基本的 ReAct 代理相反,在这种情况下,agent
节点不是在 tools
和 END
之间选择,而是在它调用的特定工具之间选择。在这种情况下,预期的流程是 agent
节点中的 LLM 将首先选择 action 工具,并在收到 action 工具输出后调用 response 工具,然后将其路由到 respond
节点,该节点仅结构化来自 agent
节点工具调用的参数。
优点和缺点
这种格式的好处是您只需要一个 LLM,并且可以节省资金和延迟。这种格式的缺点是不能保证单个 LLM 会在您想要的时候调用正确的工具。我们可以通过在使用 bind_tools
时将 tool_choice
设置为 any
来帮助 LLM,这会强制 LLM 在每次轮次中至少选择一个工具,但这远非万无一失的策略。此外,另一个缺点是代理可能会调用多个工具,因此我们需要在我们的路由函数中显式检查这一点(或者如果我们使用 OpenAI,我们可以设置 parallell_tool_calling=False
以确保一次只调用一个工具)。
选项 2
强制工具调用代理具有结构化输出的第二种方法是使用第二个 LLM(在本例中为 model_with_structured_output
)来响应用户。
在这种情况下,您将正常定义一个基本的 ReAct 代理,但 agent
节点不是在 tools
节点和结束对话之间进行选择,而是 agent
节点将在 tools
节点和 respond
节点之间进行选择。respond
节点将包含第二个使用结构化输出的 LLM,一旦被调用,将直接返回给用户。您可以将此方法视为基本的 ReAct,但在响应用户之前多了一个步骤。
优点和缺点
这种方法的好处是它可以保证结构化输出(只要 .with_structured_output
在 LLM 中按预期工作)。使用这种方法的缺点是它需要在响应用户之前进行额外的 LLM 调用,这会增加成本和延迟。此外,由于没有向 agent
节点 LLM 提供有关所需输出模式的信息,因此存在 agent
LLM 将无法调用以正确输出模式回答所需的正确工具的风险。
请注意,这两个选项都将遵循完全相同的图结构(参见上图),因为它们都是基本 ReAct 架构的精确副本,但在末尾添加了一个 respond
节点。
设置¶
首先,让我们安装所需的软件包并设置我们的 API 密钥
import getpass
import os
def _set_env(var: str):
if not os.environ.get(var):
os.environ[var] = getpass.getpass(f"{var}: ")
_set_env("ANTHROPIC_API_KEY")
设置 LangSmith 以进行 LangGraph 开发
注册 LangSmith 以快速发现问题并提高 LangGraph 项目的性能。LangSmith 允许您使用跟踪数据来调试、测试和监控使用 LangGraph 构建的 LLM 应用程序——阅读更多关于如何开始使用 此处 的信息。
定义模型、工具和图状态¶
现在我们可以定义我们想要如何结构化我们的输出,定义我们的图状态,以及我们的工具和我们将要使用的模型。
要使用结构化输出,我们将使用 LangChain 中的 with_structured_output
方法,您可以在 此处 阅读更多相关信息。
在本示例中,我们将使用单个工具来查找天气,并将结构化的天气响应返回给用户。
from pydantic import BaseModel, Field
from typing import Literal
from langchain_core.tools import tool
from langchain_anthropic import ChatAnthropic
from langgraph.graph import MessagesState
class WeatherResponse(BaseModel):
"""Respond to the user with this"""
temperature: float = Field(description="The temperature in fahrenheit")
wind_directon: str = Field(
description="The direction of the wind in abbreviated form"
)
wind_speed: float = Field(description="The speed of the wind in km/h")
# Inherit 'messages' key from MessagesState, which is a list of chat messages
class AgentState(MessagesState):
# Final structured response from the agent
final_response: WeatherResponse
@tool
def get_weather(city: Literal["nyc", "sf"]):
"""Use this to get weather information."""
if city == "nyc":
return "It is cloudy in NYC, with 5 mph winds in the North-East direction and a temperature of 70 degrees"
elif city == "sf":
return "It is 75 degrees and sunny in SF, with 3 mph winds in the South-East direction"
else:
raise AssertionError("Unknown city")
tools = [get_weather]
model = ChatAnthropic(model="claude-3-opus-20240229")
model_with_tools = model.bind_tools(tools)
model_with_structured_output = model.with_structured_output(WeatherResponse)
API 参考:tool | ChatAnthropic
选项 1:将输出绑定为工具¶
现在让我们检查一下我们将如何使用单个 LLM 选项。
定义图¶
图定义与上面的非常相似,唯一的区别是我们不再在 response
节点中调用 LLM,而是将 WeatherResponse
工具绑定到已经包含 get_weather
工具的 LLM。
from langgraph.graph import StateGraph, END
from langgraph.prebuilt import ToolNode
tools = [get_weather, WeatherResponse]
# Force the model to use tools by passing tool_choice="any"
model_with_response_tool = model.bind_tools(tools, tool_choice="any")
# Define the function that calls the model
def call_model(state: AgentState):
response = model_with_response_tool.invoke(state["messages"])
# We return a list, because this will get added to the existing list
return {"messages": [response]}
# Define the function that responds to the user
def respond(state: AgentState):
# Construct the final answer from the arguments of the last tool call
weather_tool_call = state["messages"][-1].tool_calls[0]
response = WeatherResponse(**weather_tool_call["args"])
# Since we're using tool calling to return structured output,
# we need to add a tool message corresponding to the WeatherResponse tool call,
# This is due to LLM providers' requirement that AI messages with tool calls
# need to be followed by a tool message for each tool call
tool_message = {
"type": "tool",
"content": "Here is your structured response",
"tool_call_id": weather_tool_call["id"],
}
# We return the final answer
return {"final_response": response, "messages": [tool_message]}
# Define the function that determines whether to continue or not
def should_continue(state: AgentState):
messages = state["messages"]
last_message = messages[-1]
# If there is only one tool call and it is the response tool call we respond to the user
if (
len(last_message.tool_calls) == 1
and last_message.tool_calls[0]["name"] == "WeatherResponse"
):
return "respond"
# Otherwise we will use the tool node again
else:
return "continue"
# Define a new graph
workflow = StateGraph(AgentState)
# Define the two nodes we will cycle between
workflow.add_node("agent", call_model)
workflow.add_node("respond", respond)
workflow.add_node("tools", ToolNode(tools))
# Set the entrypoint as `agent`
# This means that this node is the first one called
workflow.set_entry_point("agent")
# We now add a conditional edge
workflow.add_conditional_edges(
"agent",
should_continue,
{
"continue": "tools",
"respond": "respond",
},
)
workflow.add_edge("tools", "agent")
workflow.add_edge("respond", END)
graph = workflow.compile()
API 参考:StateGraph | END | ToolNode
用法¶
现在我们可以运行我们的图来检查它是否按预期工作
answer = graph.invoke(input={"messages": [("human", "what's the weather in SF?")]})[
"final_response"
]
同样,代理返回了我们预期的 WeatherResponse
对象。
选项 2:2 个 LLM¶
现在让我们深入了解我们将如何使用第二个 LLM 来强制结构化输出。
定义图¶
我们现在可以定义我们的图
from langgraph.graph import StateGraph, END
from langgraph.prebuilt import ToolNode
from langchain_core.messages import HumanMessage
# Define the function that calls the model
def call_model(state: AgentState):
response = model_with_tools.invoke(state["messages"])
# We return a list, because this will get added to the existing list
return {"messages": [response]}
# Define the function that responds to the user
def respond(state: AgentState):
# We call the model with structured output in order to return the same format to the user every time
# state['messages'][-2] is the last ToolMessage in the convo, which we convert to a HumanMessage for the model to use
# We could also pass the entire chat history, but this saves tokens since all we care to structure is the output of the tool
response = model_with_structured_output.invoke(
[HumanMessage(content=state["messages"][-2].content)]
)
# We return the final answer
return {"final_response": response}
# Define the function that determines whether to continue or not
def should_continue(state: AgentState):
messages = state["messages"]
last_message = messages[-1]
# If there is no function call, then we respond to the user
if not last_message.tool_calls:
return "respond"
# Otherwise if there is, we continue
else:
return "continue"
# Define a new graph
workflow = StateGraph(AgentState)
# Define the two nodes we will cycle between
workflow.add_node("agent", call_model)
workflow.add_node("respond", respond)
workflow.add_node("tools", ToolNode(tools))
# Set the entrypoint as `agent`
# This means that this node is the first one called
workflow.set_entry_point("agent")
# We now add a conditional edge
workflow.add_conditional_edges(
"agent",
should_continue,
{
"continue": "tools",
"respond": "respond",
},
)
workflow.add_edge("tools", "agent")
workflow.add_edge("respond", END)
graph = workflow.compile()
API 参考:StateGraph | END | ToolNode | HumanMessage
用法¶
我们现在可以调用我们的图以验证输出是否按预期进行结构化
answer = graph.invoke(input={"messages": [("human", "what's the weather in SF?")]})[
"final_response"
]
正如我们所见,代理返回了我们预期的 WeatherResponse
对象。现在可以很容易地在更复杂的软件堆栈中使用此代理,而无需担心代理的输出与堆栈中下一步骤的预期格式不匹配。