RAG 记忆 vs. 河流算法
为什么相似度检索不够用。
RAG / 现有 AI 记忆
检索然后遗忘
- 关键词 / 向量相似度检索 — 找到"看起来像"的文本,不理解什么对你重要
- 没有时间线 — 3 年前的事实和昨天的一样权重
- 没有因果推理 — "你提到头痛"和"你换了工作"是孤立的碎片,永远不会被关联
- 同等权重召回 — 你随口提到的一部电影和你的核心价值观排在同一级别
- 依赖云端 — 每条消息都发到远程模型;你的数据存在别人的服务器上
Riverse / 河流算法
理解然后演化
- 个人画像权重 — 信息按与你的相关性排序,而非文本相似度
- 时间推移 — 近期事件携带势能;旧的模式随时间自然固化或消退
- 因果推断 — 将"换新工作 → 压力 → 头痛 → 睡眠问题"关联成完整的因果链
- 置信度分级 — 观察从猜测 → 确认 → 稳固,通过多轮验证逐步升级
- 本地驱动 — 记忆存在你的设备上;远程大模型只在本地认知解决不了问题时才调用一次
向量搜索在医疗问答库中匹配了"头痛"。和你的生活毫无关联。
因果链:换工作 → 睡眠变差 → 头痛。有时间线意识,个人权重驱动。
未来:你的设备,你的智能
今天的 AI 以云为中心 — 每一个想法都经过别人的服务器。Riverse 把这个倒过来。你的个人设备掌握记忆、画像、上下文,在本地理解你。只有遇到本地处理不了的问题时,才把问题精确描述好,调用一次远程大模型 — 像咨询专家,而不是把大脑外包。
这是未来在手机、手表等个人终端上运行真正个人 AI 的基础 — 你掌握自己的数据、画像和智能。
河流算法
让 Riverse 与众不同的核心认知模型。
对话像水流,关键信息像河床泥沙一样沉淀,经过多轮验证逐步从"猜测"升级为"确认"再到"稳固"。离线整理(Sleep)则是河流的自净过程。
特性
打造真正个人 AI 所需的一切。
持久记忆
跨会话记忆,构建随你演化的用户画像。
离线整理(Sleep)
对话结束后自动整理记忆、提炼认知、解决矛盾。
多模态输入
文本、语音、图片 — 通过 Whisper、GPT-4 Vision、LLaVA 原生理解。
可插拔工具
网页搜索、财务追踪、健康同步(Withings)、TTS 等。
YAML 技能
用简单的 YAML 创建自定义行为,按关键词或 cron 定时触发。
外部 Agent
通过配置文件接入 Home Assistant、n8n、Dify 等。
多渠道
Telegram、Discord、REST API、WebSocket、CLI、Web 仪表盘。
本地优先
默认 Ollama,质量不足时自动升级到 OpenAI / DeepSeek。
主动关怀
跟进重要事件、空闲问候、策略提醒,尊重静默时段。
语义搜索
BGE-M3 向量嵌入,按语义而非关键词检索相关记忆。
MCP 协议
支持 Model Context Protocol,接入 Gmail 等 MCP Server。
技术栈
| 层 | 技术 |
|---|---|
| 运行时 | Python 3.10+, PostgreSQL 16+ |
| 本地 LLM | Ollama(任意兼容模型) |
| 云端 LLM | OpenAI GPT-4o / DeepSeek(兜底) |
| 向量嵌入 | Ollama + BGE-M3 |
| REST API | FastAPI + Uvicorn |
| Web 仪表盘 | Flask |
| Telegram | python-telegram-bot (async) |
| Discord | discord.py (async) |
| 语音 / 图像 | Whisper-1, GPT-4 Vision, LLaVA |
| TTS | Edge TTS |