模型¶
本页描述了如何配置代理使用的聊天模型。
工具调用支持¶
要启用工具调用代理,底层 LLM 必须支持工具调用。
兼容模型可在LangChain 集成目录中找到。
使用 initChatModel
¶
initChatModel
实用程序通过可配置参数简化了模型初始化。
import { initChatModel } from "langchain/chat_models/universal";
const llm = await initChatModel(
"anthropic:claude-3-7-sonnet-latest",
{
temperature: 0,
maxTokens: 2048
}
);
有关高级选项,请参阅API 参考。
使用特定提供商的 LLM¶
如果模型提供商无法通过 initChatModel
获得,您可以直接实例化该提供商的模型类。该模型必须实现 BaseChatModel
接口并支持工具调用。
import { ChatAnthropic } from "@langchain/anthropic";
import { createReactAgent } from "@langchain/langgraph/prebuilt";
const llm = new ChatAnthropic({
modelName: "claude-3-7-sonnet-latest",
temperature: 0,
maxTokens: 2048
});
const agent = createReactAgent({
llm,
// other parameters
});
示例
上面的示例使用了 ChatAnthropic
,它已经由 initChatModel
支持。显示此模式是为了说明如何手动实例化一个通过 initChatModel
无法获得的模型。