如何从预置的 ReAct 智能体返回结构化输出¶
要从预置的 ReAct 智能体返回结构化输出,您可以将带有所需输出模式的 responseFormat
参数提供给 createReactAgent
import { z } from "zod";
import { createReactAgent } from "@langchain/langgraph/prebuilt";
const responseFormat = z.object({
// Respond to the user in this format
mySpecialOutput: z.string(),
})
const graph = createReactAgent({
llm: llm,
tools: tools,
// specify the schema for the structured output using `responseFormat` parameter
responseFormat: responseFormat
})
智能体将在对话结束、不再需要进行工具调用时,通过额外进行一次 LLM 调用,以 responseFormat
模式指定的格式返回输出。您可以阅读 本指南,了解另一种从智能体获取结构化输出的方式——将结构化输出视为另一种工具。
设置¶
首先,我们需要安装所需的软件包。
本指南将使用 OpenAI 的 GPT-4o 模型。我们可以选择设置用于 LangSmith 追踪 的 API 密钥,这将为我们提供一流的可观察性。
// process.env.OPENAI_API_KEY = "sk_...";
// Optional, add tracing in LangSmith
// process.env.LANGSMITH_API_KEY = "ls__..."
process.env.LANGSMITH_TRACING = "true";
process.env.LANGSMITH_PROJECT = "ReAct Agent with system prompt: LangGraphJS";
代码¶
import { ChatOpenAI } from "@langchain/openai";
import { createReactAgent } from "@langchain/langgraph/prebuilt";
import { tool } from "@langchain/core/tools";
import { z } from "zod";
const weatherTool = tool(
async (input): Promise<string> => {
if (input.city === "nyc") {
return "It might be cloudy in nyc";
} else if (input.city === "sf") {
return "It's always sunny in sf";
} else {
throw new Error("Unknown city");
}
},
{
name: "get_weather",
description: "Use this to get weather information.",
schema: z.object({
city: z.enum(["nyc", "sf"]).describe("The city to get weather for"),
}),
}
);
const WeatherResponseSchema = z.object({
conditions: z.string().describe("Weather conditions"),
});
const tools = [weatherTool];
const agent = createReactAgent({
llm: new ChatOpenAI({ model: "gpt-4o", temperature: 0 }),
tools: tools,
responseFormat: WeatherResponseSchema,
});
用法¶
现在让我们测试一下智能体
const response = await agent.invoke({
messages: [
{
role: "user",
content: "What's the weather in NYC?",
},
],
})
您可以看到,除了 messages
键下的消息历史之外,智能体输出还包含一个 structuredResponse
键,其值是符合指定 WeatherResponse
模式的结构化输出。
自定义系统提示词¶
您可能需要进一步自定义第二次 LLM 调用以生成结构化输出,并提供一个系统提示词。为此,您可以向 responseFormat
参数传递一个包含 prompt
和 schema
键的对象。
const agent = createReactAgent({
llm: new ChatOpenAI({ model: "gpt-4o", temperature: 0 }),
tools: tools,
responseFormat: {
prompt: "Always return capitalized weather conditions",
schema: WeatherResponseSchema,
}
});
const response = await agent.invoke({
messages: [
{
role: "user",
content: "What's the weather in NYC?",
},
],
})
您可以验证结构化响应现在包含一个大写的值。