跳到内容

如何强制工具调用代理输出结构化内容

先决条件

本指南假定您熟悉以下内容

您可能希望您的代理以结构化格式返回其输出。例如,如果代理的输出被其他下游软件使用,您可能希望每次调用代理时输出都采用相同的结构化格式,以确保一致性。

本笔记本将介绍两种强制工具调用代理结构化其输出的不同选项。我们将使用一个基本的ReAct 代理(一个模型节点和一个工具调用节点),并结合第三个节点在末尾为用户格式化响应。这两种选项将使用相同的图结构,如下图所示,但内部机制不同。

react_diagrams.png

选项 1

option1.png

强制工具调用代理进行结构化输出的第一种方法是将其所需输出绑定为 `agent` 节点要使用的附加工具。与基本 ReAct 代理不同,此处的 `agent` 节点不是在 `tools` 和 `END` 之间选择,而是在其调用的特定工具之间选择。在这种情况下,预期的流程是 `agent` 节点中的 LLM 将首先选择动作工具,接收到动作工具输出后,它将调用响应工具,然后路由到 `respond` 节点,该节点只是结构化 `agent` 节点工具调用的参数。

优点和缺点

这种格式的好处是您只需要一个 LLM,因此可以节省成本和延迟。这种选项的缺点是不能保证单个 LLM 会在您需要时调用正确的工具。我们可以在使用 `bind_tools` 时通过将 `tool_choice` 设置为 `any` 来帮助 LLM,这会强制 LLM 在每次轮次中至少选择一个工具,但这远非万无一失的策略。此外,另一个缺点是代理可能会调用*多个*工具,因此我们需要在路由函数中明确检查这一点(或者如果我们使用 OpenAI,我们可以设置 `parallel_tool_calling=False` 以确保一次只调用一个工具)。

选项 2

option2.png

强制工具调用代理进行结构化输出的第二种方法是使用第二个 LLM(在本例中为 `model_with_structured_output`)来响应用户。

在这种情况下,您将正常定义一个基本的 ReAct 代理,但 `agent` 节点不是在 `tools` 节点和结束对话之间进行选择,而是在 `tools` 节点和 `respond` 节点之间进行选择。`respond` 节点将包含第二个使用结构化输出的 LLM,一旦调用,将直接返回给用户。您可以将此方法视为在响应用户之前多了一个步骤的基本 ReAct。

优点和缺点

这种方法的优点是它保证了结构化输出(只要 `.with_structured_output` 与 LLM 按预期工作)。使用这种方法的缺点是它需要在响应用户之前进行额外的 LLM 调用,这会增加成本和延迟。此外,通过不向 `agent` 节点 LLM 提供有关所需输出模式的信息,存在 `agent` LLM 将无法调用回答正确输出模式所需的正确工具的风险。

请注意,这两种选项都将遵循完全相同的图结构(参见上图),即它们都是基本 ReAct 架构的精确复制品,但在结束之前增加了一个 `respond` 节点。

设置

首先,让我们安装所需的包并设置我们的 API 密钥

pip install -U langgraph langchain_anthropic
import getpass
import os


def _set_env(var: str):
    if not os.environ.get(var):
        os.environ[var] = getpass.getpass(f"{var}: ")


_set_env("ANTHROPIC_API_KEY")

为 LangGraph 开发设置 LangSmith

注册 LangSmith,快速发现问题并提高 LangGraph 项目的性能。LangSmith 允许您使用跟踪数据来调试、测试和监控您使用 LangGraph 构建的 LLM 应用——在此阅读更多关于如何开始的信息。

定义模型、工具和图状态

现在我们可以定义我们希望如何结构化输出,定义我们的图状态,以及我们的工具和我们将要使用的模型。

要使用结构化输出,我们将使用 LangChain 的 `with_structured_output` 方法,您可以在此处阅读更多信息。

在这个例子中,我们将使用一个工具来查找天气,并向用户返回一个结构化的天气响应。

API 参考:tool | ChatAnthropic

from pydantic import BaseModel, Field
from typing import Literal
from langchain_core.tools import tool
from langchain_anthropic import ChatAnthropic
from langgraph.graph import MessagesState


class WeatherResponse(BaseModel):
    """Respond to the user with this"""

    temperature: float = Field(description="The temperature in fahrenheit")
    wind_directon: str = Field(
        description="The direction of the wind in abbreviated form"
    )
    wind_speed: float = Field(description="The speed of the wind in km/h")


# Inherit 'messages' key from MessagesState, which is a list of chat messages
class AgentState(MessagesState):
    # Final structured response from the agent
    final_response: WeatherResponse


@tool
def get_weather(city: Literal["nyc", "sf"]):
    """Use this to get weather information."""
    if city == "nyc":
        return "It is cloudy in NYC, with 5 mph winds in the North-East direction and a temperature of 70 degrees"
    elif city == "sf":
        return "It is 75 degrees and sunny in SF, with 3 mph winds in the South-East direction"
    else:
        raise AssertionError("Unknown city")


tools = [get_weather]

model = ChatAnthropic(model="claude-3-opus-20240229")

model_with_tools = model.bind_tools(tools)
model_with_structured_output = model.with_structured_output(WeatherResponse)

选项 1:将输出绑定为工具

现在让我们看看如何使用单个 LLM 选项。

定义图

图定义与上述非常相似,唯一的区别是我们不再在 `response` 节点中调用 LLM,而是将 `WeatherResponse` 工具绑定到我们已经包含 `get_weather` 工具的 LLM。

API 参考:StateGraph | END | ToolNode

from langgraph.graph import StateGraph, END
from langgraph.prebuilt import ToolNode

tools = [get_weather, WeatherResponse]

# Force the model to use tools by passing tool_choice="any"
model_with_response_tool = model.bind_tools(tools, tool_choice="any")


# Define the function that calls the model
def call_model(state: AgentState):
    response = model_with_response_tool.invoke(state["messages"])
    # We return a list, because this will get added to the existing list
    return {"messages": [response]}


# Define the function that responds to the user
def respond(state: AgentState):
    # Construct the final answer from the arguments of the last tool call
    weather_tool_call = state["messages"][-1].tool_calls[0]
    response = WeatherResponse(**weather_tool_call["args"])
    # Since we're using tool calling to return structured output,
    # we need to add  a tool message corresponding to the WeatherResponse tool call,
    # This is due to LLM providers' requirement that AI messages with tool calls
    # need to be followed by a tool message for each tool call
    tool_message = {
        "type": "tool",
        "content": "Here is your structured response",
        "tool_call_id": weather_tool_call["id"],
    }
    # We return the final answer
    return {"final_response": response, "messages": [tool_message]}


# Define the function that determines whether to continue or not
def should_continue(state: AgentState):
    messages = state["messages"]
    last_message = messages[-1]
    # If there is only one tool call and it is the response tool call we respond to the user
    if (
        len(last_message.tool_calls) == 1
        and last_message.tool_calls[0]["name"] == "WeatherResponse"
    ):
        return "respond"
    # Otherwise we will use the tool node again
    else:
        return "continue"


# Define a new graph
workflow = StateGraph(AgentState)

# Define the two nodes we will cycle between
workflow.add_node("agent", call_model)
workflow.add_node("respond", respond)
workflow.add_node("tools", ToolNode(tools))

# Set the entrypoint as `agent`
# This means that this node is the first one called
workflow.set_entry_point("agent")

# We now add a conditional edge
workflow.add_conditional_edges(
    "agent",
    should_continue,
    {
        "continue": "tools",
        "respond": "respond",
    },
)

workflow.add_edge("tools", "agent")
workflow.add_edge("respond", END)
graph = workflow.compile()

用法

现在我们可以运行我们的图来检查它是否按预期工作

answer = graph.invoke(input={"messages": [("human", "what's the weather in SF?")]})[
    "final_response"
]
answer
WeatherResponse(temperature=75.0, wind_directon='SE', wind_speed=3.0)

再次,代理返回了一个 `WeatherResponse` 对象,正如我们所期望的那样。

选项 2:两个 LLM

现在让我们深入探讨如何使用第二个 LLM 来强制结构化输出。

定义图

我们现在可以定义我们的图

API 参考:StateGraph | END | ToolNode | HumanMessage

from langgraph.graph import StateGraph, END
from langgraph.prebuilt import ToolNode
from langchain_core.messages import HumanMessage


# Define the function that calls the model
def call_model(state: AgentState):
    response = model_with_tools.invoke(state["messages"])
    # We return a list, because this will get added to the existing list
    return {"messages": [response]}


# Define the function that responds to the user
def respond(state: AgentState):
    # We call the model with structured output in order to return the same format to the user every time
    # state['messages'][-2] is the last ToolMessage in the convo, which we convert to a HumanMessage for the model to use
    # We could also pass the entire chat history, but this saves tokens since all we care to structure is the output of the tool
    response = model_with_structured_output.invoke(
        [HumanMessage(content=state["messages"][-2].content)]
    )
    # We return the final answer
    return {"final_response": response}


# Define the function that determines whether to continue or not
def should_continue(state: AgentState):
    messages = state["messages"]
    last_message = messages[-1]
    # If there is no function call, then we respond to the user
    if not last_message.tool_calls:
        return "respond"
    # Otherwise if there is, we continue
    else:
        return "continue"


# Define a new graph
workflow = StateGraph(AgentState)

# Define the two nodes we will cycle between
workflow.add_node("agent", call_model)
workflow.add_node("respond", respond)
workflow.add_node("tools", ToolNode(tools))

# Set the entrypoint as `agent`
# This means that this node is the first one called
workflow.set_entry_point("agent")

# We now add a conditional edge
workflow.add_conditional_edges(
    "agent",
    should_continue,
    {
        "continue": "tools",
        "respond": "respond",
    },
)

workflow.add_edge("tools", "agent")
workflow.add_edge("respond", END)
graph = workflow.compile()

用法

我们现在可以调用我们的图来验证输出是否按预期进行结构化

answer = graph.invoke(input={"messages": [("human", "what's the weather in SF?")]})[
    "final_response"
]
answer
WeatherResponse(temperature=75.0, wind_directon='SE', wind_speed=4.83)

正如我们所见,代理返回了一个 `WeatherResponse` 对象,正如我们所期望的那样。现在,将这个代理用于更复杂的软件栈将变得很容易,而无需担心代理的输出与栈中下一步预期的格式不匹配。