从"会话级工具"到"真正助手"的核心跃迁
当前大多数 AI 系统都是无状态的:每次对话独立,模型靠 prompt 注入上下文,重启后完全丢失。这对一次性问答够用,但对"个人助手"场景是致命的。
北邮 + BAI-LAB 2026年1月发布《Survey on AI Memory》,提出四类记忆的系统框架。
| Memory Type | What(存什么) | When(何时写) | Where(存在哪) |
|---|---|---|---|
| Working | 当前会话上下文 | 会话中实时 | Context window |
| Episodic | 事件、事实、偏好 | 任务完成/关键节点 | SQLite+FTS5 / Vector DB |
| Procedural | 技能、流程、操作序列 | 成功完成复杂任务后 | Skills 目录(.md) |
| Semantic | 通用知识、常识 | 外部知识注入 | 外部 KG / 知识库 |
Nous Research · GitHub 100k+ Stars — 实践中的三层记忆架构。
| 方案 | 代表项目 | 优点 | 缺点 |
|---|---|---|---|
| SQLite + FTS5 | Hermes Agent | 轻量、零依赖、全文检索 | 非向量、复杂查询弱 |
| 向量数据库 | 多数 RAG 系统 | 语义检索强 | 额外服务、延迟 |
| 知识图谱 | MCP-KG-Memory | 关系推理强、可解释 | 构建成本高 |
| 混合架构 | 进阶方案 | 各取所长 | 复杂度高 |
FTS5 搜索历史会话 → 用 LLM 总结相关上下文 → 检索结果作为额外 context 注入当前 session → 不依赖外部向量服务,降低部署复杂度
| 写入方式 | 实现难度 | 覆盖率 | 说明 |
|---|---|---|---|
| 用户显式声明 | 低 | 低(依赖用户主动) | "记住,我偏好..." |
| Agent 主动检测 | 中 | 中 | 需要 LLM 判断"这值得记住吗" |
| 任务成功后自动提炼 | 高 | 高(最理想) | 可能产生噪声 |
| 定时批处理 | 中 | 中 | 延迟高,但避免打断主流程 |
| 维度 | 含义 |
|---|---|
| 覆盖率 | Agent 能记住多少"应该记住"的信息 |
| 准确性 | 检索到的记忆是否真正相关 |
| 及时性 | 记忆写入是否及时不丢失 |
| 可审计性 | 能否追溯 Agent 决策原因 |
| 遗忘能力 | 低价值记忆是否自然淘汰 |
| 隐私合规 | 敏感信息是否得到保护 |