如何禁用不支持流式传输的模型的流式传输¶
一些聊天模型,包括 OpenAI 的新 O1 模型(取决于您阅读本文的时间),不支持流式传输。当使用 astream_events API 时,这可能会导致问题,因为它以流式传输模式调用模型,期望流式传输能够正常工作。
在本指南中,我们将向您展示如何禁用不支持流式传输的模型的流式传输,确保即使通过 astream_events API 调用它们,也永远不会以流式传输模式调用它们。
from langchain_openai import ChatOpenAI
from langgraph.graph import MessagesState
from langgraph.graph import StateGraph, START, END
llm = ChatOpenAI(model="o1-preview", temperature=1)
graph_builder = StateGraph(MessagesState)
def chatbot(state: MessagesState):
return {"messages": [llm.invoke(state["messages"])]}
graph_builder.add_node("chatbot", chatbot)
graph_builder.add_edge(START, "chatbot")
graph_builder.add_edge("chatbot", END)
graph = graph_builder.compile()
API 参考:ChatOpenAI | StateGraph | START | END
不禁用流式传输¶
现在我们已经定义了我们的图,让我们尝试在不禁用流式传输的情况下调用 astream_events
。这应该会抛出一个错误,因为 o1
模型本身不支持流式传输
input = {"messages": {"role": "user", "content": "how many r's are in strawberry?"}}
try:
async for event in graph.astream_events(input, version="v2"):
if event["event"] == "on_chat_model_end":
print(event["data"]["output"].content, end="", flush=True)
except:
print("Streaming not supported!")
禁用流式传输¶
现在,在不更改图的情况下,让我们将模型上的 disable_streaming 参数设置为 True
,这将解决问题
llm = ChatOpenAI(model="o1-preview", temperature=1, disable_streaming=True)
graph_builder = StateGraph(MessagesState)
def chatbot(state: MessagesState):
return {"messages": [llm.invoke(state["messages"])]}
graph_builder.add_node("chatbot", chatbot)
graph_builder.add_edge(START, "chatbot")
graph_builder.add_edge("chatbot", END)
graph = graph_builder.compile()
现在,使用相同的输入重新运行,我们应该看不到任何错误
input = {"messages": {"role": "user", "content": "how many r's are in strawberry?"}}
async for event in graph.astream_events(input, version="v2"):
if event["event"] == "on_chat_model_end":
print(event["data"]["output"].content, end="", flush=True)