跳到内容

如何添加跨线程持久性(函数式 API)

前提条件

本指南假设您熟悉以下内容

LangGraph 允许您在**不同线程**之间持久化数据。例如,您可以将有关用户(其姓名或偏好)的信息存储在共享(跨线程)内存中,并在新线程(例如,新对话)中重复使用这些信息。

当使用函数式 API 时,您可以通过使用Store 接口来设置存储和检索记忆。

  1. 创建一个 Store 实例

    from langgraph.store.memory import InMemoryStore, BaseStore
    
    store = InMemoryStore()
    
  2. store 实例传递给 entrypoint() 装饰器,并在函数签名中公开 store 参数

    from langgraph.func import entrypoint
    
    @entrypoint(store=store)
    def workflow(inputs: dict, store: BaseStore):
        my_task(inputs).result()
        ...
    

在本指南中,我们将展示如何构建和使用一个通过 Store 接口实现共享内存的工作流。

注意

本指南中使用的 Store API 支持已在 LangGraph v0.2.32 中添加。

本指南中使用的 Store API 的 **index** 和 **query** 参数支持已在 LangGraph v0.2.54 中添加。

注意

如果您需要为 StateGraph 添加跨线程持久性,请查看此操作指南

设置

首先,安装所需的包并设置我们的 API 密钥

pip install -U langchain_anthropic langchain_openai langgraph
import getpass
import os


def _set_env(var: str):
    if not os.environ.get(var):
        os.environ[var] = getpass.getpass(f"{var}: ")


_set_env("ANTHROPIC_API_KEY")
_set_env("OPENAI_API_KEY")

设置 LangSmith 用于 LangGraph 开发

注册 LangSmith 以快速发现问题并提高您的 LangGraph 项目的性能。LangSmith 允许您使用追踪数据来调试、测试和监控您使用 LangGraph 构建的 LLM 应用程序 — 在此处阅读更多关于如何入门的信息

示例:具有长期记忆的简单聊天机器人

定义存储

在本例中,我们将创建一个能够检索用户偏好信息的工作流。我们将通过定义一个 InMemoryStore 来实现,这是一个可以在内存中存储数据并查询数据的对象。

当使用 Store 接口存储对象时,您需要定义两件事

  • 对象的命名空间,一个元组(类似于目录)
  • 对象的键(类似于文件名)

在我们的示例中,我们将使用 ("memories", <user_id>) 作为命名空间,并使用随机 UUID 作为每个新记忆的键。

重要的是,为了确定用户,我们将通过节点函数的 config 关键字参数传递 user_id

首先定义我们的存储!

API 参考:OpenAIEmbeddings

from langgraph.store.memory import InMemoryStore
from langchain_openai import OpenAIEmbeddings

in_memory_store = InMemoryStore(
    index={
        "embed": OpenAIEmbeddings(model="text-embedding-3-small"),
        "dims": 1536,
    }
)

创建工作流

API 参考:ChatAnthropic | RunnableConfig | BaseMessage | entrypoint | task | add_messages | MemorySaver

import uuid

from langchain_anthropic import ChatAnthropic
from langchain_core.runnables import RunnableConfig
from langchain_core.messages import BaseMessage
from langgraph.func import entrypoint, task
from langgraph.graph import add_messages
from langgraph.checkpoint.memory import MemorySaver
from langgraph.store.base import BaseStore


model = ChatAnthropic(model="claude-3-5-sonnet-latest")


@task
def call_model(messages: list[BaseMessage], memory_store: BaseStore, user_id: str):
    namespace = ("memories", user_id)
    last_message = messages[-1]
    memories = memory_store.search(namespace, query=str(last_message.content))
    info = "\n".join([d.value["data"] for d in memories])
    system_msg = f"You are a helpful assistant talking to the user. User info: {info}"

    # Store new memories if the user asks the model to remember
    if "remember" in last_message.content.lower():
        memory = "User name is Bob"
        memory_store.put(namespace, str(uuid.uuid4()), {"data": memory})

    response = model.invoke([{"role": "system", "content": system_msg}] + messages)
    return response


# NOTE: we're passing the store object here when creating a workflow via entrypoint()
@entrypoint(checkpointer=MemorySaver(), store=in_memory_store)
def workflow(
    inputs: list[BaseMessage],
    *,
    previous: list[BaseMessage],
    config: RunnableConfig,
    store: BaseStore,
):
    user_id = config["configurable"]["user_id"]
    previous = previous or []
    inputs = add_messages(previous, inputs)
    response = call_model(inputs, store, user_id).result()
    return entrypoint.final(value=response, save=add_messages(inputs, response))

注意

如果您正在使用 LangGraph Cloud 或 LangGraph Studio,则**无需**将 store 传递给 entrypoint 装饰器,因为这是自动完成的。

运行工作流!

现在让我们在 config 中指定一个用户 ID,并告诉模型我们的名字

config = {"configurable": {"thread_id": "1", "user_id": "1"}}
input_message = {"role": "user", "content": "Hi! Remember: my name is Bob"}
for chunk in workflow.stream([input_message], config, stream_mode="values"):
    chunk.pretty_print()
================================== Ai Message ==================================

Hello Bob! Nice to meet you. I'll remember that your name is Bob. How can I help you today?

config = {"configurable": {"thread_id": "2", "user_id": "1"}}
input_message = {"role": "user", "content": "what is my name?"}
for chunk in workflow.stream([input_message], config, stream_mode="values"):
    chunk.pretty_print()
================================== Ai Message ==================================

Your name is Bob.
我们现在可以检查我们的内存存储,并验证我们确实保存了该用户的记忆

for memory in in_memory_store.search(("memories", "1")):
    print(memory.value)
{'data': 'User name is Bob'}
现在让我们为另一个用户运行工作流,以验证关于第一个用户的记忆是独立存储的

config = {"configurable": {"thread_id": "3", "user_id": "2"}}
input_message = {"role": "user", "content": "what is my name?"}
for chunk in workflow.stream([input_message], config, stream_mode="values"):
    chunk.pretty_print()
================================== Ai Message ==================================

I don't have any information about your name. I can only see our current conversation without any prior context or personal details about you. If you'd like me to know your name, feel free to tell me!

评论