引言:当前AI的两大核心痛点
大家普遍感受到,当前 RAG(检索增强生成) 仍有一个明显短板:它往往像在 “读课文” ——缺乏情感,也缺少真正的思考,其“思考”更多体现在如何拼接文本片段上,而非理解内容本身。
另一方面,虽然大模型不断进化,但在实际长对话中,即便如 Gemini 3,也常出现两类问题:要么忘记之前内容,要么陷入记忆混乱,不断重复。这种表现,正如 Yann LeCun 所指出,更像 “鹦鹉学舌”,离真正的、连贯的智能还很远。
那么,是否存在一种折中方案?我希望它:
- 不机械“读课文”,能自然表达;
- 能稳定记住信息,形成连贯对话;
- 能站在我的角度思考并回答问题。
我的目标是:设计一个与我思维相近、解决问题方式相似的AI,用以帮助我和课程学员进行深度交流。
1. 从最小可行产品到渐进优化
理论有了,具体怎么实现?我采用了务实且敏捷的搭建策略:先跑通核心,再逐步完善。
整个应用实现的过程,为了尽量避免少出错,一开始没有大而全的设计,初期的最重要的设计就是调用模型,然后提取记忆存到向量库,并且通过绘画验证,已经可以使用我的记忆回答问题。
- 技术选型与快速试错:
- 最初尝试 Mem0(记忆管理) + Gemini 3(因为模型限制受阻) + hugging face API (记忆嵌入) + Qdrant。
- 迅速切换为 DeepSeek API + Mem0 + Qdrant(向量数据库),用 ollama BGE-3 模型做记忆嵌入,流程顺利跑通。
- 核心流程验证:这个最小系统已经能实现:我说话 -> 提取关键记忆存入Qdrant -> 后续问题能检索相关记忆并回答。验证了路径可行。

基本流程通了以后,我做了一些适当的优化,因为原来的提取记忆使用的是Hugging Face API 的 Bge-m3 后来改成用 ollama 本地速度会更快一些。
2. 优化体验与构建前端
核心流程通了之后,才开始优化和构建界面。
- 性能优化:将记忆提取的嵌入模型从Hugging Face的 Bge-m3 改为本地部署的 Ollama,速度大幅提升。
- 功能界面化:基于跑通的核心记忆功能,开发了React前端,形成了四个主要界面:聊天对话、灵感管理、记忆浏览、记忆采集,让两个核心闭环有了直观的操作入口。

3. 挑战:高质量地输入”我的记忆”?
关键体会:计划常在与实践碰撞中变形。
我放弃了直接导入文章、知识库或聊天记录的初始想法,因为那会面临严重的 “信息淹没” 与 “信息密度不均” 问题——我曾因加入数百本书籍而将知识库变成“读书机”。
因此,我设计了一套主动的、结构化的记忆提取机制
在规划这个系统的时候,我想的是可以通过我的聊天记录、写过的文章或者个人资料,比如简历之类的东西来填充记忆,但是实际要做的时候想想同,聊天记录大多数都是一些没有什么营养的东西,如果当做一些记忆甚至是一些embedding的语料,其实没什么价值,反而可能会更影响模型的效果。
想了想,其实如果是想复制我的性格,包括一些思考方式,让模型跟我比较像的话,可能有几种,思维方式,描述信息的方式,沟通方式,表达习惯,这些可能是包括对一些事情的观点,这些可能就是更核心的东西,我认为这几个方面有可能会能比较立体的把我的记忆填充起来。 然后是设计具体的实现方式。
下一步就是如何使用记忆,我设想了几种可能的方式:
模型生成问题的对话式采集
- 通过预设提示词,让模型基于最新行业动态(如AI学习应用)生成多角度问题。
- 我发送一些话题,或者文章, AI新闻,AI根据问题给出一些针对性的问题,从回答中自动采集记忆
我以语音方式自由回答感兴趣的问题,系统从回答中主动提取我的思维模式、决策逻辑和价值观倾向。

在对话中采集
在与”AI自我”的日常对话中,产生的灵感、解决方案或精彩论述,可一键转化为灵感笔记、待办事项或文章片段。
这些新产出的内容,又作为新的记忆原料,被系统自动吸收,形成持续演进的认知闭环

在对话界面采集灵感

灵感管理界面-灵感内容
同时还可能生成待办和文章片段, 或者也可以加上 gemini 直接生成信息图。

后续需要做的
让这些灵感和文章的内容自动采集进记忆。因为这些内容是我比较认可或者是通过跟模型对话探索自己的思维整理出来的内容,是相对于有价值的高质量的内容

4. 记忆的管理
记忆的提取直接影响到模型回复的效果,所以在开始的时候我必须要完整的看到模型提取嵌入记忆的原数据是怎样的,所以需要一个记忆管理的页面

嗯,因为我不排除用 Qwen 14B 继续做 Fine tune ,我觉得这一个版本的东西它可能另外一个很好的用处是沉淀我的记忆库,沉淀到向量库里,然后这些信息保存了相对比较完整的结构,比如内容的精炼,分类,置信度,记忆的类型等等。
如果后续我要做模型 Fine tune 的话,可以直接把这个向量库的内容导出去做一些去当做语料。

5. 完成状态
这套系统已进入日常使用阶段。我计划先运行一阵,评估记忆质量与辅助效果。下一阶段,将考虑利用此过程中积累的高质量对话数据,对 Qwen-14B 等模型进行微调,以创造更深度、更个性化的AI工作伙伴。

扩展内容
观点与优化建议(脚注)
1. RAG像“读课文”,缺乏真正的理解与思考
- 现状与诟病:当前许多RAG应用直接将检索到的文本片段拼接成答案,导致回答生硬、逻辑断裂,像在朗读文档摘要,而非进行有理解的对话。
- 应对:可在检索后增设 “逻辑重述层”,强制模型用自己的语言和逻辑链重组信息。亦可探索引入 “推理链”提示,让模型先整理证据再作答,从而提升答案的连贯性与思考深度。
2. 大模型在实际使用中常出现“记忆混乱”或“遗忘”
- 现状与诟病:即便最新的对话模型,在长程交互中也普遍存在两大问题:忘记之前的对话内容,或频繁、不合时宜地提及历史信息,导致对话混乱且不可靠。
- 应对:需要设计结构化的记忆管理机制。可将记忆分为 “长期记忆”(核心事实、身份)、“工作记忆”(当前会话焦点)和 “情境记忆”(临时上下文),并明确不同记忆的调用、更新与遗忘规则,以模拟人类更稳定的记忆模式。
3. 个人记忆的提取应避免“信息淹没”,不能依赖文章或聊天记录直接导入
- 现状与诟病:将个人海量文档、聊天记录直接灌入知识库,会导致高价值、高密度的个人见解被海量低信息密度的文本(如客套话、转载内容)稀释,系统检索结果质量严重下降。
- 应对:放弃 “全量导入”,采用 “主动提炼”。设计一套问答或复盘流程,引导主体针对性地输出其核心观点、决策逻辑和案例经验。这种 “高质量蒸馏” 的方式,是构建高可用个人记忆库的关键。
4. 用AI创造“另一个自己”作为对话伙伴
- 现状与诟病:当前AI多为通用或面向特定任务,缺乏个性化的思维模式和持续一致的“人设”,难以成为真正的思维伙伴或个人数字镜像。
- 应对:关键在于系统性地捕获并结构化个人的 “思维模式”,而不仅是知识。这需要通过持续对话、特定问题回答、决策案例复盘等方式,提取其思考框架、价值倾向和表达风格,并将这些 “元认知” 作为核心记忆喂给模型。应对关键在于系统性地捕获并结构化个人的思维模式而不仅是知识这需要通过持续对话特定问题回答决策案例复盘等方式提取其思考框架价值倾向和表达风格并将这些元认知作为核心记忆喂给模型
潜在问题与优化方向
1. “记忆提取机制”可能陷入“自我验证循环”
- 问题:如果用于提取记忆的问题,是由一个已经初步学习了您风格的AI生成的,那么这些问题可能会不自觉地偏向于您已有的、擅长的认知框架。您基于这些问题给出的答案,会进一步强化AI对您这部分思维的认知,从而导致系统提取的记忆范围越来越窄,形成一个不断自我强化的封闭循环,难以触及和记录您的思维盲区或未定型的新想法。
- 优化方向:引入 “外部刺激源”。定期用第三方资料、争议性观点或跨领域问题来生成挑战性提问,迫使您思考和表达平时不常触及的观点,从而打破循环,丰富记忆的多样性。
2. “问答提取”对记忆覆盖率的局限性
- 问题:通过预设问答来提取记忆,其覆盖度严重依赖于所设计问题的全面性。大量 “默会知识”——即那些在特定情境下本能使用,但难以被抽象成语言明确表述的经验、直觉和技巧——很难通过常规问答被触发和捕捉。这可能导致构建的“AI自我”知识体系完整,但缺乏关键的、灵动的“实战手感”。
- 优化方向:补充 “场景还原”式记录。在完成实际项目或解决具体问题后,立即进行 “出声思考”式复盘,描述整个过程和瞬间的决策念头,并让AI从中总结模式。这种情境化的记录比抽象问答更能捕获深层次认知。
3. 目标“思维相像”可能牺牲对话的多样性与创造性价值
- 问题:过度追求“思维相像”,可能使AI成为一个高度逼真的 “回声室”。对于使用者(尤其是学员)而言,与一个完全模仿您思维的AI对话,可能只是在重复巩固已有的认知路径,无法获得突破性的新视角或批判性质疑,从而降低了对话的启发性和创造价值。
- 优化方向:明确区分AI的 “人格基底” 与 “对话角色”。”人格基底”可以模仿您的核心思维,但应允许切换不同的”对话角色”,例如 “苏格拉底式的提问者”、“跨学科的联系者” 或 “彻底的新手”。这样既能保持一致性,又能提供思维碰撞的价值。
APP 总结
大多数 AI 助手只能进行"一次性对话"——每次会话都是独立的,无法记住你之前的偏好、想法和对话历史。这导致:
- ❌ 需要反复解释同样的背景信息
- ❌ AI 无法理解你的个性化思维方式
- ❌ 对话中的宝贵见解无法有效沉淀
- ❌ 缺乏系统性的知识管理和整理工具
### imjovi 想解决的问题
#### 1. 🧠 长期记忆
imjovi 不是简单地记录对话历史,而是**智能提取并理解**你的信息:
- **自动记忆提取**:AI 自动识别对话中的重要观点、推理过程和知识
- **语义理解存储**:基于向量数据库,记住的是"意思"而非"关键词"
- **质量智能评估**:每条记忆都有重要性、置信度评分,确保存储高质量信息
- **跨会话检索**:在任何对话中,AI 都能回忆起相关的历史记忆
**实际效果**:你说"我喜欢渐进式的设计",三个月后聊产品设计时,AI 会主动提醒你"记得你之前偏好渐进式呈现"。
#### 2. 🎨 深度个性化理解
imjovi 不只是记住你说的话,更**理解你的思维模式**:
- **思维风格分析**:识别你是演绎型、归纳型还是类比型思考者
- **语言习惯学习**:记住你的用词偏好和表达方式
- **价值观提取**:从你的观点中理解核心价值观
**实际效果**:随着对话增多,imjovi 会越来越"像你",回复风格、思考方式都会逐渐与你同频。
#### 3. 💡 灵感管理与知识沉淀
imjovi 独创的**灵感管理系统**,让对话中的智慧火花不再流失:
- **一键提取**:从对话中快速捕获有价值的观点
- **智能标题**:AI 自动生成精准的灵感标题
- **内容转换**:将灵感一键转换为教程、待办清单、分享文案
- **标签分类**:通过标签构建个人知识体系
**实际效果**:与 AI 探讨"如何提高工作效率"后,立即提取 5 个关键观点,转换为待办清单,开始实践。
