![]()
作者 | 黄小艺
邮箱 | huangxiaoyi@pingwest.com
本周的AI项目推荐,我们聚焦在AI Memory这个领域。这是一个还没有被太多目光注意到,但已经在融资动作和产品更新上呈现出“起飞”态势的方向。
一批名为Mem“X”的算法框架及产品,正在加入模型上下文的战争。
随着大模型被推向应用场景,一个根本性问题日益凸显:如何有效管理和记忆长上下文。无论是实现连贯的多轮对话,还是构建能长期服务用户的个性化Agent,记忆的积累与调用都是核心。于是,在当前大模型的上下文限制下,RAG也好,Agent也好,都在某种程度上尝试提出补偿方案。
而现在,10000个AI记忆框架也来了:Letta(MemGPT)、Mem0、MemU、MemOS......他们直接将记忆转化成一套可独立设计的工程体系,支持智能筛选信息、结构化存储、高效检索,为大模型装上了可插拔、可优化的“记忆外挂”。
对AI初创而言,这也是一个绝佳的切入点:记忆是大模型实现真正可用性的刚需所在,而目前技术路线和应用场景差异化明显、竞争格局远未固化,且资本投资热度颇高。
我们整理了市面上主流的AI记忆算法框架、产品及其融资情况,也看看它们之间到底有什么区别。
1
Mem“X ”混战
Letta:https://github.com/letta-ai/letta
Letta由加州大学伯克利分校的实验室孵化而成,项目最早在 GitHub 以 MemGPT名义开源,后更名为 Letta,截止目前有19K星。
MemGPT的核心是一个记忆管理流水线,也是记忆领域的元老级框架。
其论文显示,它将上下文划分为 Main Context(主上下文,即提示词) 与 External Context(外部上下文),允许LLM 通过MemGPT 来管理其自身的上下文,将不太相关的数据从主上下文(提示词)中移除并存储到外部上下文中,同理,也可以将相关的外部上下文召回到主上下文,从而实现信息在两者之间的迁移,让记忆持久化和即时可用[1]。
![]()
详细来说,基于上图,当用户的输入进入后,该消息首先由队列管理器(Queue Manager)处理,放入先进先出队列(FIFO Queue)中,这是一个简单的时序处理逻辑。如果此时上下文窗口接近饱和,队列管理器会自动将队列中最旧的消息转移到回忆存储(Recall Storage)中进行备份,以确保有足够的空间容纳新信息。
随后,LLM 会读取其完整的有限上下文,包括固定的系统指令、可变的工作上下文以及更新后的消息队列,并基于这些信息进行“思考”,如果LLM能直接回答用户,就会生成一段文本回复。
但如果它判断需要利用长期记忆,比如查询用户的职业,它就会生成一个函数调用,由Function Executor(函数执行器)捕获并执行,Function Executor会与Archival Storage(归档存储)交互,或调取回忆存储(Recall Storage)的记忆,检索所需信息,将结果,写回到 LLM 的工作上下文中。
这个更新操作相当于为 LLM 提供了一条新的关键信息,触发它进行新一轮的思考,生成一个更具个性化和上下文感知能力的回复,完成交互闭环。
2024年,Letta获得了1000万美元的种子资金,领投 Felicis Ventures,投资人包括硅谷大佬Jeff Dean,2025 年持续迭代,推出 Letta Cloud(托管版)、本地 Docker与桌面版三种部署方式。
Mem0:https://github.com/mem0ai/mem0
定位为“AI智能体的通用记忆层”,与 MemGPT 的区别在于,用户的输入进入时,会和已有记忆进行相似性查询,融合、关联记忆,并调用工具操作,保持数据库的更新,而不是简单的先进先出的时序整理。
Mem0在GitHub已获得 42.6K 星,Python 包下载量达 1400 万次。API 使用量呈指数级增长,从第一季度的 3500 万次调用增长至 2025 年第三季度的 1.86 亿次,成为了AWS新Agent SDK的记忆提供方。
论文显示,主要架构有 Mem0 和MemOᵍ两种互补的记忆架构[2]:
其中,Mem0的架构概览如下,在提取阶段,处理消息和历史上下文,以创建新的记忆;更新阶段将这些提取的记忆,与类似的现有记忆进行比较,并通过Tool Call进行相应的操作,例如增加、更新、删除、不操作。数据库作为中央存储库,为处理和存储更新后的记忆提供上下文,适合单跳和多跳推理任务。
![]()
而MemOᵍ基于图的扩展,提取阶段使用 LLM 将对话消息转换为实体和关系三元组,更新阶段将新信息集成到现有知识图谱,并采用冲突检测和解决机制。论文显示,该架构在时间域和开放域任务中显著提升了性能。
![]()
2025年10月底,Mem0宣布获得了2400万美元的融资,由Kindred Ventures 领投种子轮,Basis Set Ventures 领投 A 轮,其他参与者包括 Peak XV Partners、GitHub Fund 和 Y Combinator。
MemU:https://github.com/NevaMind-AI/memU
前豆包和猫箱 Memory 算法负责人陈宏创办,定位为“为AI伴侣设计的下一代代理记忆系统”。MemU支持文本、图像、音频等多种数据类型,提供云、企业和社区自托管三种模式。项目于 2025 年 8 月发布,已在 GitHub 获得2.8K星,侧重AI角色扮演、虚拟偶像等场景。
MemU 设计理念的核心在于「基于Agent的记忆文件组织方式」 。
在记忆提取阶段,MemU会将各个记忆项根据其类别,分组到专用的文档文件中,提供自主记忆代理,能自动决定何时记录、修改、归档或遗忘信息。每⼀条记忆也会被视作更⼤知识图谱中的节点。系统会⾃动检测不同时间、不同模态间的联系,构建出⼀个可动态演化的“经验⽹络”,像超链接⽂档⼀样可以被检索和遍历[4]。
![]()
相当于融合了Mem0的两个架构,会按类型把信息划分为文件,且同时会对文件中的具体信息进行跨文件的关联,而总体上,再由一个自主的Agent,基于一定规则来整理。
Memobase:https://github.com/memodb-io/memobase
和MemU一样是基于文件的组织方式。Memobase专注“基于用户画像的长期记忆”,定位是为聊天机器人、AI伴侣等应用打造“用户档案库”,支持 Profile和Event双线记忆管理,并即将推出Schedule、Social 两类新的记忆结构[5],在GitHub上有2.3K星。
Memobase强调对性能、成本和延迟的平衡,通过为每个用户建立缓冲区来批量处理对话,确保在线响应速度低于100ms[5]。
![]()
除了应用于AI伴侣场景,还可以应用在教育等场景,例如通过记住个人的学习进度、偏好和优势,专门针对教育环境中的记忆功能进行配置,使其能够更专注于学生的错误答案、标准化考试成绩和学习习惯。
MemOS:https://github.com/MemTensor/MemOS
MemOS 认为,「记忆」作为一个独立系统层,和计算、存储一样,是AI 应用的基础能力。它的整体架构可以概括为三层: API 与应用接口层、记忆调度与管理层、记忆存储与基础设施层,更注重面向企业级的系统化记忆管理。
![]()
据其公开技术文档及论文显示[6]:
在API 与应用接口层,MemOS 提供了标准化的 Memory API,开发者可以通过简单的接口实现记忆创建、删除、更新等操作,支持多轮对话、长期任务和跨会话个性化等复杂应用场景。
在记忆调度与管理区层,别于其他记忆结构,其核心差异在于从记忆建模的视角出发,提出了记忆调度范式——通过设计异步调度框架,提前预测模型可能需要的记忆信息,例如用户正值旅游阶段,有关旅游的记忆和安排会提前被激活,从而降低实时生成中的效率损耗。
在记忆存储与基础设施层,MemOS通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆(又分为内、外两种参数记忆,内参数记忆即微调进大模型)三种形态有机整合[7]。
如图所示,在这个环节,它还提供了记忆的过期策略、不同用户的访问控制、隐私保护、水印服务等合规设定,并支持多种持久化存储方式,包括 Graph 数据库、向量数据库,甚至构想了记忆的商业生态(MemStore),让记忆本身成为可以流通的商品。
总体而言,其核心思想是将AI的记忆像企业级数据一样进行专业化管理,通过分层解耦,区分了不同状态的记忆(内在/外在,激活/持久化),将记忆的应用、调度、治理、存储分开。
MemOS背后的企业是记忆张量,2025年6月记忆张量宣布完成了由孚腾资本、算丰信息、中金资本等知名机构共同投资的近亿元天使轮融资。
Memories.ai:
专注视觉记忆。成立于 2024 年,由前 meta Reality Labs 的华人研究科学家Shawn Shen与Ben Zhou联合创立,能为 AI 提供持久、可检索的视觉记忆层。
Memories.ai已经推出了LVMM 1.0(Large Visual Memory Model)和LVMM 2.0 两种架构。
其中,LVMM 1.0将视频流解构为视频画面、语音、文本、元数据四个维度。在画面解析上,又拆分成框架结构、物体识别、动作理解、事件序列等结构化数据层,把视频解读并存储成更详细的数据,具体到每个片段帧的图文描述,把拆分好的结果存进数据库,并进行向量化和知识图谱,方便用户query来了进行索引[8]。
![]()
在近日,Memories.ai又推出了LVMM 2.0,并宣布了与高通合作,从 2026 年开始在高通处理器上本地运行,使消费者和企业能够在其设备上安全、快速地搜索和分析视觉时刻。
Memories.ai 的 LVMM 2.0 通过将原始视频转换为设备上的结构化记忆,对帧进行编码、压缩,并构建支持亚秒级搜索的索引。用户可以用通俗易懂的语言提出复杂的问题或使用图像提示,然后跳转到确切的时刻。在高通处理器上本地运行可降低延迟、降低云成本并将数据保持在本地以增强安全性,即使在网络边缘也能可靠地执行。
2025 年7 月,Memories.ai完成 800 万美元种子轮融资,领投方为 Susa Ventures,跟投包括 Samsung Next、Crane Venture Partners、Fusion Fund、Seedcamp、Creator Ventures等。
Zep AI:https://github.com/getzep
Zep AI,一种面向Agent的新型记忆层服务,由其开发的Graphiti开源框架提供支持。Graphiti 是一个时间知识图谱框架,用于处理不断变化的关系并维护历史背景,其独特之处在于它能够自主构建知识图谱,同时还能推理状态随时间的变化。每个事实都包含 valid_at 和 invalid_at ,这使得智能体能够追踪用户偏好、特征或环境的变化[9]。截止目前,在GitHub上,Zep有3.7K星,Graphiti有19.7K星。
![]()
Zep AI 在 2024 年 4 月 完成了约 50 万美元的种子轮融资,领投方为 Y Combinator。
Second-Me (by Mindverse):https://github.com/Mindverse/Second-Me。
Second‑Me 是 Mindverse 打造的 AI 身份模型,核心在于本地隐私训练、持续记忆对齐、开放生态,主张“训练你的AI自我”,通过分层记忆模型(HMM)和自我对齐算法,使记忆能够随用户行为持续更新、保持一致性旨在捕获你的身份、理解你的情境,强调100%的隐私和控制权。
![]()
图中,记忆的L0~L2分别指的是:
L0:原始数据层。该层类似于将RAG等直接应用于原始数据,将记忆定义为所有非结构化数据。
L1:自然语言记忆层。该层包含可以用自然语言形式概括的记忆,例如用户的简短个人简介、重要句子或短语列表以及偏好标签。
L2:AI 原生记忆层。该层代表那些无需自然语言描述的记忆。相反,这些记忆通过模型参数进行学习和组织。
区别于其他“记忆文件外挂”,Second‑Me提出了首个基于个人文档记录的全自动后训练流程,构建了一个多层混合系统。
Supermemory:https://github.com/supermemoryai/supermemory
Supermemory 是一套面向AI应用的通用记忆 API,通过自研向量数据库、内容解析器、知识图谱以及丰富的 SDK/Connector[10],帮助个人和企业实现跨会话、跨模态、可持久的记忆,GitHub上获得13.2K星。
![]()
其特点是:
支持导入文本、文件和聊天记录(支持多模态,包括文本、图像、文件、链接、视频帧);
模拟人脑实际运作方式,包括智能遗忘、衰退、近因效应、语境重写等,进行重新排序结果。
构建一个能够捕捉“记忆”(模式、见解、背景)的知识图谱 。
举个例子,在以下场景中:
![]()
RAG会检索语义上最相似的文本,但会忽略了时间进程和因果关系。
![]()
而通过时序知识图谱,Supermemory会跟踪事实何时失效,并理解因果链。
![]()
创始人Dhravya Shah年仅 19 岁。2025 年10月,Supermemory完成了约260万美元种子轮融资,由 Susa Ventures、Browder Capital、SF1.vc 领投。
1
不存在绝对“正确”的路线,记忆框架的进化刚开始
从根本上看,当下的AI记忆框架(Mem“X”)是RAG方案的进化产物。它们的核心身份仍然是一个外部记忆API,但其职责不再是简单地提供事实知识库,而是像人脑一样,对原始信息进行处理、切割与重组,然后将消化过的“记忆”作为上下文,供大语言模型(LLM)或智能体(Agent)调取。
这种“记忆与处理分离”的架构,模拟了人脑中记忆存储区与逻辑处理区的分工,优雅地解决了LLM上下文窗口有限的难题。
然而,这也是一把双刃剑。由于记忆以API形式提供,且目前的记忆的处理更像是简单的切割和索引,主流平台又普遍支持记忆的迁移与备份,客户的切换成本相对较低,这使得市场难以形成绝对的“护城河”。
另一方面,这也意味着这是一门高度工程化的B端服务业务。 客户对记忆方案的评估维度极为细分——价格、延迟、准确性、关联度、安全性,且效果反馈周期长。不存在一个“最好”的方案,只有“最适合”的方案。正是这种多样化的需求,催生了当前记忆框架在技术路线上的分野。
打个比方,如果LLM有限的上下文是计算机的“物理内存(RAM)”,外部存储是“硬盘(Hard Drive)”,那么不同的Mem“X”框架,就是针对不同场景设计出的“内存调度系统”。它们都在回答同一个核心问题:记忆应该如何被组织和调度,才能最准确高效地在“硬盘”和“内存”之间换入换出?
目前,主流的记忆框架可以归结为三大类:
一类是将记忆管理设定为一种操作系统行为。
此路线将记忆管理视为一种宏观的、动态的系统行为。以 MemOS 为例,它会主动“整理”全部记忆,将其区分为不同状态(如明文记忆、激活记忆),并引入一个预测性调度框架。根据当前对话和用户画像,它能提前将可能需要的记忆“预加载”到准备区。这种方案的优势在于处理大规模、高并发的企业级记忆场景,追求整体的调度效率。
第二类是将记忆转化为知识图谱的“关联网络”,Zep AI、Supermemory、MemOᵍ、Memories.ai都或多或少地提供了这一服务。
此路线的拥护者认为,记忆的力量在于关联。它们致力于将离散的记忆片段(“用户喜欢咖啡”)结构化为实体、属性和关系的“关联网络”。这使得AI能够进行更复杂的逻辑推理。
例如,Zep AI 强调时间维度,能更新“用户上周喜欢咖啡,但这周失眠不能喝了”这类动态关系;而 Supermemory 则利用LLM自动从对话中提取关系,构建自增长的记忆网络。这条路线的记忆更新处理成本相对较高,更适合需要深度逻辑和状态追踪的场景。
第三类则是通过文件系统(File System),将记忆视为“归档资料”。例如,MemU、Memobase,更侧重于记忆的组织、分类和应用。
此路线将记忆视为需要精确组织和分类的“归档资料”。例如,Memobase 将用户的静态偏好和动态经历分开,以清晰的数据架构换取更低的检索延迟。而 MemU 的独特之处在于引入了一个自主记忆代理(Agent)来扮演“档案管理员”,让Agent来管理记忆,而非简单地让记忆服务于Agent。
此外,还存在如 Second-Me 这样的混合路线,它通过“全自动后训练”,将部分记忆特征直接“刻进”模型参数中,实现了“外挂”与“内化”的结合。
这些路线并非完全互斥,许多项目正在融合多路线的优点。但更关键的趋势在于,记忆框架的“管理者”正在变得越来越聪明,从而避免被替代,形成数据的飞轮。
此前,以MemGPT为代表的初代框架,更像一个按固定规则整理书籍的“机械图书管理员”,其管理逻辑是工程化的、静态的。而2025年涌现的新框架,如MemU和MemOS,则越来越多地在记忆管理中引入AI或Agent,使其成为一个能根据用户动态画像和上下文,自主学习和优化整理策略的“智慧图书管理员”。
这种从“索引API”到“自主管理”的进化,是AI记忆框架的竞争焦点,即从基础的工程实现,转向如何构建一个更智能、更高效的记忆Agent体系。
2026年,关于记忆的框架进化和竞赛,才刚刚开始。
参考资料:
[1]MemGPT: Towards LLMs as Operating Systems
[2]Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
[3]Overview - Mem0 https://docs.mem0.ai/cookbooks/overview
[4]MemU documentation - Complete Guide for AI Memory Integration
[5]What is Memobase? - Memobase
[6]MemOS: A Memory OS for AI System
[7]MemOS算法原理概述 https://memos-docs.openmem.net/cn/overview/algorithm
[8]Introduction | Memories.ai
[9]ZEP: A TEMPORAL KNOWLEDGE GRAPH ARCHITECTURE FOR AGENT MEMORY
[10]How Supermemory Works - supermemory | Memory API for the AI era
![]()
点个“爱心”,再走 吧





京公网安备 11011402013531号