LLM维护的个人Wiki

创建于 2026-04-23  ·  AI工具知识管理

LLM 维护的个人 Wiki

来源:karpathy-llm-wiki(Andrej Karpathy,2026)
本页是对该文的合成提炼,与本库实现的对应关系。

核心洞察

大多数人用 LLM 处理文档的方式是 RAG:上传文件,提问时检索相关片段,生成回答。知识不积累,每次提问都从头推导。

这个模式的替代方案是:LLM 增量构建并维护一个持久 wiki。每次加入新来源,LLM 不只是索引——它读取、提取、整合进已有 wiki,更新实体页、补充概念、标注矛盾。

关键差异:wiki 是持续复利的产出物,跨引用已经建立,矛盾已经标注,综合已经反映了所有读过的内容。问一个需要综合五个文档的复杂问题,答案已经在 wiki 里——不需要现场拼凑。


三层架构

角色在本库中
原始来源不可修改的输入00_INBOX/03_RESOURCES/02_AREAS/知识管理/
Wiki(合成层)LLM 写入并维护05_WIKI/
SchemaAI 操作手册05_WIKI/AGENTS.md05_WIKI/CLAUDE.md

三种核心操作

摄入(Ingest) 加入新来源 → AI 读取、提炼、整合进 wiki,更新相关领域页,一个来源可能触及多个 wiki 页面。触发:摄入来源:[文件路径]

查询(Query) 向 wiki 提问 → AI 检索相关页面综合回答。好的回答本身也可归档为新 wiki 页,让探索本身成为沉淀。触发:Wiki查询:[问题]

健检(Lint) 定期检查 wiki 质量:查找矛盾、孤儿页、缺 wiki_summary 的标记、陈旧内容。触发:Wiki健检


为什么有效

维护知识库的累赘不是阅读和思考,而是书务工作:更新交叉引用、保持摘要最新、标注矛盾、维护一致性。人类会放弃 wiki,因为维护成本随规模增长。

人类的工作:策展来源、引导分析、提好问题、判断意义。
LLM 的工作:其他所有事情。

LLM 不会厌倦,不会忘记更新交叉引用,可以一次性修改十几个文件。


与本库已有概念的连接

  • 对抗熵 — wiki 需要 AI 持续输入才能维持结构,不维护即在退化
  • 系统鲁棒性 — 三层架构(源→wiki→schema)为知识管理提供冗余保障
  • 地图与领土 — wiki 是领土(现实知识)的地图,AI 负责持续校准这张地图