LangChain(二):Memory
reference:
为什么需要Memory
当与这些模型进行交互时,它们自然而然地不会记得您之前说过的话或之前的对话。这对手构建聊天机器人等应用程序拼希望与其对话时是个间题, 因此,在本节申,将介绍记忆也就是如何加载先前对话的部分并将其输入到语言模型中,以便在与其交互时能够保持对话的连贯性。
当你使用一个大型语言模型进行聊天对话时,大型语言模型本身实际上是无状态的。语言模型本身不会记佳你到目前为上所进行的对话。每次调用API都是独立的。LLM需要提供完整的对话作为上下文(Context)才能有”记忆“
做法是将之前的会话存储在内存中,每次调用都将内存保存的会话和新的输入一起输入给LLM
随着对话变得越来越长。所需的内存量也变得非常长。因此,发送大量的tokens到LLM的成本也变得更加昂贵,而语LLM通常是根据需要处理的tokens数量来计费的。(比如OpenAI的key)
因此,LangChain存储提供了凡种方便的内存类型来存储和积累对话。
最简单的一种内存类型是 ConversationBufferMemory
ConversationBufferMemory
加载OpenAI_key
1 | import os |
1 | from langchain.chat_models import ChatOpenAI |
下面代码涉及到**ConversationChain(会话链)**的概念,之后的章节会介绍
1 | llm = ChatOpenAI(temperature=0.0) |
连续对话两次
1 | conversation.predict(input="Hi, my name is KennyCaty") |
1 | conversation.predict(input="What is 1+1?") |
可以使用 save_context
来手动添加记忆
1 | memory.save_context({"input": "Hi"}, |
控制内存无限增长
ConversationBufferWindowMemory
LangChain提供了一个 ConversationBufferWindowMemory
,它的特点是只保留最近的K个交互,以避免缓冲区过大
1 | from langchain.memory import ConversationBufferWindowMemory |
同样的,如果使用
1 | from langchain.chat_models import ChatOpenAI |
ConversationTokenBufferMemory
它的特点是只保留最近的 max_token_limit
个token数,以避免缓冲区过大
同样的如果记录的token数量超过限制,则会删除之前的tokens
需要pip install tiktoken
1 | from langchain.memory import ConversationTokenBufferMemory |
1 | memory = ConversationTokenBufferMemory(llm=llm, max_token_limit=30) |
1 | memory.load_memory_variables({}) |
{‘history’: ‘AI: Beautiful!\nHuman: Chatbots are what?\nAI: Charming!’}
30个token之前的内容不会存储
ConversationSummaryMemory
不再将记忆限制为基于最近会话的某个数量,而是使用语言模型编写到目前为止的对话摘要,并将其作为记忆
1 | from langchain.memory import ConversationSummaryBufferMemory |
如果token数小于100,则会记录所有会话内容
如果token数大于100,则会自动生成为Summary(总结)
其他存储
还有许多其他内存类型,较为强大的是向量存储,在文本嵌入,数据库检索方面功能非常强大
还可以多种内存类型混合使用
除了使用内存类型,还可以将整个会话存储在传统数据库中