真正的AI知识库
过去这两年的AI知识库只能算半成品。而卡帕西的LLM Wiki是真正AI知识库。
Key Takeaway
LLM Wiki是真正AI知识库:不是传统RAG或Agent遍历文件(每次都重新读原始文档,重复消耗Token、易幻觉),而是让AI把素材“消化”成结构化、持续进化的Wiki(实体页、主题总结页、线索页等)。AI从“一次性检索生成器”升级为“知识编译器”。
核心优势:知识库变成活的知识图谱,交叉引用、逻辑关联一次性建立,后续提问直接查Wiki即可;新增资料时AI会主动更新Wiki,实现知识持续累积和自我完善。
作者实践:用newtype OS的多Agent系统,在OUTPUT文件夹基础上建立Wiki(概念层、实体层、线索层+Index/Log),并行处理、自动维护,最终知识库检索效率和Obsidian体验大幅提升。卡帕西的Gist方法简单易行,强烈建议尝试。
2026年,如果你想搭建自己的AI知识库的话,我强烈建议你采用卡帕西的方法:LLM Wiki。
你先记住我这个结论:这套做法的本质,是把AI从“一次性检索生成器”升级成了“持续知识编译器”。
我带你回顾一下,你就完全理解了。
以前大家是怎么做的?两种做法:
最早是用RAG,也就是把文档切割、向量化,然后让大模型去检索。
这种做法门槛很高,局限性也挺大。于是后来很多人改用Claude Code之类的工具,直接让Agent去遍历所有文档。
这两种做法虽然完全不同,但它们的问题其实是一样的,也就是,你每次提问,AI都得重新读一遍文档。
“每次都得重新发现知识”意味着,Token消耗会很大,尤其是当你知识库越来越大之后。而且一致性会很差,那些矛盾、交叉引用每次都要重新发现,容易出现幻觉或遗漏。
所以,其实过去这两年的AI知识库,只能算是一个半成品。那么,卡帕西做对了什么?他设计了这样一套系统:
你有一个素材库,放所有原始资料,比如文章、论文、笔记、PDF等等。AI会主动把这些资料“消化”成一个结构化的、Markdown格式的Wiki。
Wiki里的内容不是简单的复制粘贴,而是包含了实体页、主题总结页等等。它是AI完整理解了你所有内容之后生成的东西。
你提问的时候,AI会去查询Wiki,而不是每次都去原始素材里翻。AI回答完了,还可以把好答案存回Wiki,让知识继续累积。
之后你每次添加新资料进知识库,AI还会主动更新整个Wiki。
所以,在你的知识库里,AI不再是每次回答都得查资料的秘书,而是一个知识库工程师。它替你把知识“编译”成一个不断进化的Wiki。
这个才是AI知识库该有的样子!
而要实现也很简单。卡帕西发布了一个Gist。你把这个链接给AI,然后它就知道怎么做了。我已经成功了。本期视频,咱们就来聊一下具体的实现方法。
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营700天,有超过2000位小伙伴付费加入啦。
如果你是国内用户,可以从知识星球加入。如果你是海外用户,可以从Substack加入。我的第一套课程、日常的Newsletter以及专属视频,在社群内都可以看到。
回到今天的主题:LLM Wiki。
卡帕西的这套方法,不管你是用Claude Code还是别的AI工具,都适用。比如我就在用我自己做的newtype OS。
因为我的知识库已经搭建好了,所以我不是要照搬卡帕西的结构,而是要把Wiki融合进来。
在一开始,我把链接给到主Agent——Chief的时候,我就让它结合目前知识库的情况做个评估。它给出的结论是:
我跟卡帕西在做的是同一件事。比如我已经有INPUT文件夹用来存原始素材;有AGENTS和KNOWLEDGE两个Markdown文档作为纲领性文件。唯独缺少中间层,也就是Wiki。
虽然Chief建议我把Wiki放到PROCESSING文件夹里,但是我还是决定基于OUTPUT建立Wiki。
OUTPUT文件夹里存放的是我的笔记、文章以及视频脚本。它们都是成品,是我亲手写的。基于这些资料建立Wiki才是最准确的。
所以,虽然AI可以帮你搞定很多事,但是这个知识库该是什么样的,这个大方向必须由你来把握,你得动脑子好好想想。否则就变成AI的知识库了,不是吗?
当你跟AI商量好了、交代清楚之后,剩下就不用管了,AI会自动完成。
这个过程花的时间可能会很长,因为AI需要先消化你所有的内容。我这边有三个文件夹需要处理。于是Chief决定兵分三路,创建三个后台任务让子Agent去执行。
当三路扫描的综合分析都搞定之后,Chief给出Wiki的设计方案。整个结构分了好几层,比如概念层是我原创的、反复出现的、有完整论证的概念。
当我确认方案之后,Chief把活儿派出去、并行完成。你看这个就是多Agent编排系统的好处。
整个过程我等了得有20分钟,确实是个大活儿。不过最终完成得挺漂亮的。我给你们看看成品。
概念层里的东西,是我之前提过的各种概念,包括AI OS、Code is intent、万物皆文件等等。每一个概念的Markdown文档里,都有非常详细、完整的表述。这些都是AI从我过往资料里提取出来的。
实体层里的东西,是各种内容所涉及到的实体。比如卡帕西这个人,还有Claude这个模型,都是我过去经常提到的。
线索层里的东西,是可以归纳到一起的大主题。比如“AI工程三部曲”等等。我之前写的内容确实不是独立的主题,很多都可以归纳到一个大主题或者专栏里。AI全面理解之后,用逻辑把它们串起来了。
另外还有几个纲领性文件。比如Index文档是结构性的,Log文档则是按时间来排的。这种横向和纵向的整理,让AI对整个知识库有了非常详细的了解,确实会比之前单纯搜索强很多。
整个Wiki的使用方法,在知识库最底层的AGENTS文档里也有记录。以后AI就知道什么时候要去读取或者写入Wiki了。比如,当我往OUTPUT文件夹里存入新的稿子,AI会自动对它进行处理,添加进Wiki。
你看,用卡帕西的做法更新完知识库之后,是不是厉害多了?原本“死”的文档,在Wiki加入之后“活”过来了。AI的检索效率会大大提升。而且我们在Obsidian里去查看也很方便。
所以这个是非常非常值得去做的事情。大家看完视频一定要试一试。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

