如何禁用不支持流式传输的模型¶
某些聊天模型,包括 OpenAI 的新 O1 模型(取决于您阅读本文的时间),不支持流式传输。这在使用 astream_events API 时可能导致问题,因为它以流式模式调用模型,并期望流式传输功能正常。
在本指南中,我们将向您展示如何禁用不支持流式传输的模型的流式传输功能,确保它们即使通过 astream_events API 调用,也绝不以流式模式调用。
API 参考:ChatOpenAI | StateGraph | START | END
from langchain_openai import ChatOpenAI
from langgraph.graph import MessagesState
from langgraph.graph import StateGraph, START, END
llm = ChatOpenAI(model="o1-preview", temperature=1)
graph_builder = StateGraph(MessagesState)
def chatbot(state: MessagesState):
return {"messages": [llm.invoke(state["messages"])]}
graph_builder.add_node("chatbot", chatbot)
graph_builder.add_edge(START, "chatbot")
graph_builder.add_edge("chatbot", END)
graph = graph_builder.compile()
未禁用流式传输¶
现在我们已经定义了图,让我们尝试在未禁用流式传输的情况下调用 astream_events
。由于 o1
模型本身不支持流式传输,这应该会抛出错误。
input = {"messages": {"role": "user", "content": "how many r's are in strawberry?"}}
try:
async for event in graph.astream_events(input, version="v2"):
if event["event"] == "on_chat_model_end":
print(event["data"]["output"].content, end="", flush=True)
except:
print("Streaming not supported!")
禁用流式传输¶
现在,在不更改图的情况下,我们将模型的 disable_streaming 参数设置为 True
,这将解决问题。
llm = ChatOpenAI(model="o1-preview", temperature=1, disable_streaming=True)
graph_builder = StateGraph(MessagesState)
def chatbot(state: MessagesState):
return {"messages": [llm.invoke(state["messages"])]}
graph_builder.add_node("chatbot", chatbot)
graph_builder.add_edge(START, "chatbot")
graph_builder.add_edge("chatbot", END)
graph = graph_builder.compile()
现在,使用相同的输入重新运行,应该不会看到错误。
input = {"messages": {"role": "user", "content": "how many r's are in strawberry?"}}
async for event in graph.astream_events(input, version="v2"):
if event["event"] == "on_chat_model_end":
print(event["data"]["output"].content, end="", flush=True)