7 种记忆 · 3 个位置 · 4 条用好的心法
Cowork 工作时,数据分散在三个完全独立的物理位置。混淆它们,是 90% 误解的源头。
当前对话窗口里的消息,是模型"眼睛能看到"的内容。
本轮对话内对话 transcript 和沙箱容器运行在服务器侧,不在你本机。
30 天 / 会话内挂载的 Cowork 工作区和 CLAUDE.md 真实躺在你的硬盘上。
永久从易失的 token,到永久的本地文件——每一种都有自己的位置、形态和寿命。
这一刻模型的输入 token 流,包含系统提示、本轮消息、工具返回。塞满会触发压缩。
当 context window 接近上限,系统把前文压缩成一段梗概塞回流里。有损压缩,细节丢失。
对话逐条原文 JSONL,存在 Anthropic 服务器。我可通过 session_info 工具主动翻档案室,找回摘要丢失的细节。
一台云端 Ubuntu 容器,我跑代码、写中间文件的地方。你看不到,会话空闲就销毁。
附件落在沙箱 /mnt/uploads/。部分格式(md/png/pdf 等)同时进入 token 流,我直接能看到。
你在 Cowork 里选中的 Mac 文件夹,挂载为 /mnt/cowork/。我写 = 直接落你硬盘,Finder 双击即开。
Markdown 配置文件,存在你 Mac 上的全局和项目目录。每次新会话启动时,系统自动把它塞进我的系统提示——不占你打字的功夫,却能让我每次都"记得"你是谁、你要什么规则、项目背景是什么。
✓ 永久 · 每次自动加载 · 真正的人格/规则层横向比较各类记忆的生命周期。色条越长,越持久。
踩一次浪费半天工作。提前避开。
Transcript 是云端日志,默认 30 天就清,跨会话检索不稳定。
沙箱是一次性草稿纸。下次进去是全新容器,上次装的包、写的脚本都没了。
工作记忆压缩了(有损),但云端 transcript 还有原件,我可以主动去调。
一个朴素事实:Claude 跟人一样,一次能"吃进"的信息是有限的。不是字数限制,是"消化能力"的限制。
一本随机乱码书,和一页结构清晰的笔记——按字数算信息量差不多,但能被吸收的差几十倍。
这个现象,学术上叫 Epiplexity(CMU & NYU, 2026)。说人话就是:塞多少字不重要,塞多少"可吸收的结构"才重要。
像装修先放梁柱再贴砖。给 Claude 先给大纲/规则/角色,再给细节——没骨架的细节会散架。
重要的话先说。人格、护栏、不能碰的底线,永远写在对话/文件的最开始几行。
一张表格 = 五段散文。能用列表别用段落,能用表格别用列表。
每聊几轮就让 Claude 把要点落到文件里。等 token 窗口塞爆了被动压缩,已经白烧了一轮算力。
不用记论文,记这六条就够了。
存哪? 沙箱 = 草稿纸(用完即焚)· 云端 transcript = 聊天记录(约 30 天)· 你的 Mac = 正式档案(你自己管)。
怎么用? 先搭骨架 · 规则放最前 · 结构比字数重要 · 主动复盘别等爆。
参考资料明细Made for Wayne · 260415