19岁,常青藤辍学,这群中国年轻人重构了AI记忆

张开发
2026/4/20 8:55:13 15 分钟阅读

分享文章

19岁,常青藤辍学,这群中国年轻人重构了AI记忆
闻乐 发自 凹非寺量子位 | 公众号 QbitAIClaude Code源码泄漏的余波还在AI圈持续发酵说起来还挺反常Claude几乎Contribute了所有RAG记忆项目结果泄露的代码却显示——它自己压根没在用主流的RAG技术这就很矛盾了Anthropic在官方文档和技术博客里一直明确提到支持RAG检索。而它“弃用”传统RAG的玩法其实恰恰也说明了一个问题现有的RAG解决方案性能并没有达标。从2023年起混合检索就成了记忆引擎的标配逻辑向量关键词、加权排序……这些套路不断迭代。但随着AI记忆场景越来越复杂传统RAG的瓶颈也彻底暴露明明叫记忆引擎却还在干着搜索引擎的活儿只会匹配相似文本做不到真正的理解更谈不上联想推理。那怎么办答案很简单——推倒重来。回头看AI记忆的演化路径脉络其实非常清晰第一代是直接硬塞全量上下文就像通读日记第二代依靠向量关键词匹配类似查字典可是只能找到相似内容抓不住真实关联现在第三代记忆模式已经来了。能够自主联想、推理、跨结构建立关联的认知模型。中国团队自研架构领跑Benchmark让AI能够实现推理与联想大家都知道跨粒度记忆的有效组织是关键。简单点说就是让AI能同时处理细颗粒的事实和粗颗粒的上下文还能在它们之间自由跳转切换关联。但这个问题正是2023到2026年间整个记忆引擎行业难以突破的核心瓶颈。不过最近我们观察到一个平均年龄19岁的中国年轻团队心流元素给出了可行解法——M-FLOW凭借自研的图路由Bundle Search架构实现了benchmark的现象级领先。对比Mem0、Graphiti、Cognee等主流方法M-FLOW在多轮对话、长期记忆、多跳推理三大核心场景下性能优势显著。对齐Mem0的官网benchmark测试LoCoMo领先Mem0 36%对齐Graphiti的官网benchmark测试LongMemEval领先Graphiti 16%在长期事件演变测试EvolvingEvents中领先Cognee 7%领先Graphiti 20%。△测试未做任何筛选采用行业通用Benchmark深度测评之后可以更清晰地看到在覆盖写入、检索、预处理、知识组织等环节等29项能力维度中M-FLOW在绝大多数关键维度上都实现了完整支持。下图可上下滑动完整查看尤其在图增强检索、指代消解、多粒度索引等决定记忆质量的核心能力上表现突出。这份成绩的背后其实可以看到的是M-FLOW架构带来的系统性优势检索环节不依赖LLM能够实现毫秒级响应在超大记忆量场景下依然能保持接近常规Benchmark的稳定表现业内首个支持指代消解的记忆引擎让AI对信息的理解更贴合人类思维指代消解是指能区分事件中的“他”和“它”。而且基本没什么使用门槛部署流程非常简单在具备Docker环境时只需要一行代码就能完成接入。当然了虽然上手简单但在部署之前咱也先来说说大家好奇的问题M-FLOW是怎么做到的答案其实还是开头的那句话推倒重来。与当前行业里大量同质化的记忆方案不同M-FLOW并不是用LLM辅助检索来抬高Benchmark分数也不是简单叠加功能。准确说它是从根本上重构了AI记忆的组织与使用体系。让记忆会关联、能推理事实上所有RAG系统都会面临的一个问题是给定用户查询如何精准定位存储的相关知识主流方案的逻辑很直接就是将文档切块、向量化后存入向量库检索时按余弦相似度排序。这种方式本质上只回答“哪段文本和查询语义最接近”这一个层级的问题对简单事实查找的效果还不错但在复杂场景中会完全失效因为答案跨文档分布文档切块间缺乏结构性连接无法将分散在不同文档中的关联信息整合查询与存储粒度不匹配宏观问题检索到琐碎片段微观问题匹配到笼统摘要同实体异语境割裂两份文档讨论同一实体但语境不同时向量空间中距离遥远无法建立关联。究其原因是因为平坦向量检索丢弃了知识的内在结构。它能判断文本与查询的相似度却完全不清楚这段文本在整个知识体系中的拓扑位置。在这一点上M-FLOW以图路由检索替代传统平坦检索核心逻辑围绕分层知识拓扑展开其核心洞察是不止找到“匹配的文本”更要定位匹配点所属的完整知识结构再对整个结构进行评分。倒锥结构设计M-FLOW将所有摄入的知识组织为一个四层有向图形成一个倒锥inverted cone这个结构的方向性是反直觉的在传统的知识图谱或分类树中越往下越具体。但在M-FLOW中搜索的“入口在锥尖”细粒度的Entity和FacetPoint是最容易被向量搜索精确命中的而搜索的“目标在锥底”Episode是最终返回给用户的知识单元。信息流从尖锐的匹配点向下汇聚到宽广的语义落点。这打破了“从上到下浏览”的传统检索范式。用户不是在层级中逐层缩小范围而是系统在最尖锐的点上捕获信号然后沿图结构向下传播到它所归属的完整语义单元。这是一个从细到粗的过程先在最尖锐的点上捕获信号精准瞄准然后沿图结构向下传播到它所归属的完整语义单元。图路由Bundle Search的工作方式当查询到达时系统不是简单地找到最近的节点。它通过评估图中所有可能到达每个Episode的路径找到最优的Episode。阶段一在锥尖广撒网查询被向量化后同时在七个向量集合中搜索从锥尖到锥底覆盖每一层。每个集合返回最多100个候选。最容易被精确命中的是锥尖处的节点一个Entity名称、一个FacetPoint的断言。这些细粒度锚点的语义极度聚焦向量距离小。锥底的Episode摘要也可能被命中但因为语义更宽泛匹配通常不如锥尖精确。阶段二投影到图中这些锚点被用作进入知识图谱的入口节点。系统提取它们周围的子图边、邻居、连接关系然后扩展一跳邻居。这将一组孤立的向量命中点转化为一个连通的拓扑结构。阶段三从锥尖向锥底传播代价这是核心步骤也是图路由Bundle Search的本质——在锥尖捕获信号沿图边向锥底传播在Episode处汇聚评分。对于子图中的每个Episode系统评估从锚点到达它的所有可能路径每条路径的代价由三部分构成起始代价锚点的向量距离信号的尖锐程度边代价沿途每条边的向量距离连接关系与查询的相关度加跳跃惩罚未命中惩罚边没有被向量搜索命中时的默认高代价。Episode的最终得分是所有路径中的最小代价。三大打破常规的设计1.边也携带语义成为主动过滤器传统知识图谱中边图谱中节点之间的连线只是作为类型标签比如’works_at’、’located_in’不参与语义检索。查询一个图时你要么遍历边要么忽略边因为边本身不携带可被搜索的语义。而M-FLOW中每条边都附带自然语言描述文本这些文本会被向量化、同样参与搜索。这意味着边不再是被动连接器而是主动的语义过滤器。在代价传播阶段系统不仅知道两个节点之间存在连接还知道这条连接关系本身与当前查询有多相关。这样一来即便一条边的两个节点都被搜索命中只要这条边本身的语义和查询无关就会被判定为高代价从而直接切断这条不合理的关联路径。2.取路径最小代价而非平均代价为什么取最小值呢团队主要考虑到一个检索哲学——一条强的证据链就足以证明相关性。一个Episode可能关联10个Facet但9个与查询都无关。传统方式会平均所有路径代价这就会让无关路径拉高分数而M-FLOW只看那条最好的路径。只要有一个Facet通过低代价路径连接到查询这个Episode就应该被检索到。这也对应了人类记忆的工作方式比如你想起一件事通常是因为某一个线索足够强烈而不是因为所有线索都指向它。3.惩罚直接命中偏好精准锚点路径这是最反直觉的设计当查询直接匹配了Episode摘要时系统反而对这条路径施加额外惩罚。惩罚最直接命中的原因是它们和很多查询看起来相关。一个关于项目管理的Episode摘要可能和任何提到项目或管理的查询都有不错的向量距离。但这种匹配是宽泛的、缺乏焦点的这其实也反映了众多RAG系统检索噪声的根本原因。M-FLOW系统的设计偏好是优先选择从锥尖FacetPoint、Entity出发的精确路径。即使多走几跳也优先选择它直接的Episode命中只在没有更好替代路径时才胜出。这样就确保了检索结果的精确性——不是什么都沾点边的宽泛摘要而是有具体证据链支撑的Episode。拓扑论证要说这套机制为什么有效根本优势还是在于图拓扑编码了向量本身无法捕获的知识组织结构。多粒度均可找到锚点。比如问“数据库迁移发生了什么” 这类宏观问题时系统会直接匹配到Episode摘要。虽然会受到直接命中惩罚但因为没有更精确的锥尖路径这条结果依然会胜出。而像“P99目标是否低于500ms” 这类精确问题则会强匹配一个FacetPoint从锥尖经过两跳到达Episode极小的起始距离让整体代价非常低。系统不需要人为选择粒度倒锥拓扑会自动在最合适的层级找到锚点。跨文档实体桥接。当“张博士在MIT工作”出现在文档A“MIT发表了量子计算突破”出现在文档B时两个Episode会共享同一个Entity节点MIT。用户查询MIT时锥尖命中该实体代价会同时向下传播到两个Episode从而从两个独立文档中拿到关联结果不需要LLM做额外推理图结构本身就完成了桥接。结构噪声过滤。在传统平坦检索中很多语义相似但主题无关的文本片段会排在前面。而在Bundle Search中任何片段都必须沿着边追溯到某个Episode。如果沿途的边和查询语义无关路径代价会迅速升高让不相关结果自然下沉。图结构本身就是一层强大的语义噪声过滤器。代价传播即推理。图中的每一条路径本质上都是一条推理链——查询匹配这个事实→事实属于这个维度→维度属于这个事件。路径代价量化了这条推理链的紧密程度系统在2–3跳内就能完成轻量级多跳推理检索阶段不需要调用LLM。自适应置信度并不是每一层向量集合对每个查询都同样可靠。系统会为每个集合计算两个指标绝对匹配强度与区分度然后把集合分为“节点类”和“边类”按置信度动态分配权重。比如某一次查询中Entity集合的置信度明显高于Facet集合系统就会自动提高Entity路径的影响力。它不是用固定权重而是根据本次搜索中哪个粒度的命中更可信实时调整检索策略。一个额外的调节机制还有一个额外的调节机制是当某个Facet与查询向量距离极小、高度吻合时系统会显著降低这条路径上的边代价和跳跃代价。逻辑很直观如果一个Facet已经几乎完美匹配查询那么它到Episode的连接基本就是可靠的不需要再通过边语义反复验证。除此之外系统还包含查询预处理、并行多模式调度、结果裁剪等机制……所以总结来看M-FLOW的检索并不是向量搜索图数据库的简单叠加图本身就是检索机制。中国记忆引擎后发先至在国内外置记忆远没有国外的关注度高然而M-FLOW团队不做同质化堆砌实现了国产在该领域的从无到有并且性能领先世界、还坚持开源开放……其实很多初次接触记忆引擎的人都会有一个直观困惑人类的回忆难道不是寻找相关信息吗为什么AI的记忆却总是在找文本形态相似的信息这个最普遍的问题恰恰是AI记忆解决方案的核心症结。从初代全量上下文硬塞式记忆到第二代向量关键词的检索式记忆AI始终停留在文本形态匹配离真正的理解与联想相去甚远。而M-FLOW用图结构重构了AI记忆的底层逻辑解决了记忆图谱的粒度与联系问题让AI记忆完成了从形态相似匹配到联想与推理的跨越。而且值得一提的是这个项目是由一支平均年龄19岁、从常青藤辍学的团队独立开发的。在AI圈里天才少年的故事总是备受瞩目。在这次技术突破之后我们也想知道这群年轻人未来又可以走多远呢……项目地址https://github.com/FlowElement-ai/m_flow产品网站地址https://m-flow.ai公司地址https://flowelement.ai

更多文章