我的AI笔记系统
Key Takeaway
- 作者的AI笔记系统分为外部信息处理(Anything LLM)和笔记内容生成(Obsidian)两部分。
- Anything LLM支持多种大模型和向量数据库,能处理PDF和公众号文章,用于资料消化和存储。
- Obsidian是作者的终极笔记选择,因其速度快、数据本地化和丰富的AI插件(如Copilot)。
- 笔记系统通过Anything LLM过滤外部信息,将有价值部分转化为Obsidian笔记,再利用AI辅助内容生成。
- 笔记分类采用PROJECTS、AREAS、FLEETING、PERMANENT四种类别,以实现条理化管理。
- 强调工具是次要的,核心在于明确需求和逻辑,通过流程和工具构建系统。
Full Content
最近,我对我的笔记系统做了一次大升级,加上了大模型驱动的知识库,并且对整体的逻辑做了大调整。
我在这边分享一下思路和具体做法。大家可以先抄作业,然后边用边改。
整套系统分成两个部分:
第一个部分是外部信息的处理。
每天我们会看到大量的内容,有PDF格式的论文和研报,有网页形式的文章,等等。我们做的笔记,都是从这些外部信息的阅读、消化开始的。
那么,这么多的资料,怎么消化、存储、检索?这是这个环节的难点,也是AI发挥最大作用的地方。
第二个部分是笔记内容的生成。
这部分的核心问题有两个:
1、用什么样的逻辑做分类是最合理的。我之前就很烦,要么是分类太泛了,显得没啥意义;要么是突然有条新笔记,却发现哪都放不进去,就很无语。
2、用什么软件最合适。要快,要隐私安全,还要有AI功能作为辅助。
先说第一部分,对外部信息的处理,我用的工具是Anything LLM。
我在视频里、在知识星球里推荐过好多款这类型的工具。综合用下来,Anything LLM是最符合我需求的。两个原因:
第一,它可以接入市面上主流的大模型、嵌入模型和向量数据库。
比如,闭源大模型方面,御三家——OpenAI、Anthropic、Google,你填入API Key就可以使用。
开源大模型方面,Ollama和LM Studio它都支持。你把链接和端口填进去就搞定了。
在最近更新的版本里,Anything LLM把Ollama也集成进来了。它提供了一系列模型,比如我最常用的Mistral 7B,通过软件直接下载就可以用了。
有些模型实在太大了,本地肯定跑不了,那就花点钱、跑在云端,然后接到本地来用。
那么,要这么多种接入手段,有什么用呢?
我平时主要用两台电脑:
在家的时候,用台式机,也就是之前介绍过配置的那台PC,性能还OK,跑本地大模型没问题。
出门的时候,带的是Macbook Pro。这机子已经非常老了,是2017年买的,现在跑个大模型是没戏,所以只能通过API调用OpenAI的模型。
除了可以根据不同配置的电脑选用不同大模型之外,Anything LLM还支持让不同的Workspace用不同的模型。比如,有的Workspace对应的资料全是英文的,那我用Mistral就好;有的如果是中英文都有,那我用qwen-1.5。
第二,它除了支持PDF之类的文档,还能把公众号文章的内容扒下来。
我平时接收到的中文信息,有很大一部分来自公众号文章。
腾讯应该是有反扒的手段。我试过很多同类型的产品,不是谁都能通过链接把公众号文章内容给扒下来的。
这就是我对外部信息的处理方法。把AI知识库用来存储资料,帮我快速消化资料。之后需要找什么的时候,还能快速搜索。这个环节处理得好的话,其实后边的笔记环节就很好搞了。
我算是笔记应用的老用户了。从Evernote开始,得有十年了吧。这么多产品用下来,我目前的终极选择是:Obsidian。
我知道,肯定会有人问,为啥不用现在超火的Notion?两个原因。
第一,太慢了。
在Notion里,很多操作都会有那么一点点的loading时间,这是我接受不了的。我觉得,笔记应用就该像实体的笔记本一样,打开就能看,翻到哪是哪。
Obsidian就没有这种问题,特别丝滑。
第二,数据放在别人家。
在前边的外部信息处理上,我没有选择本地数据库是以为,那些文档、网页全是公开信息,没有任何隐私安全问题,所以放到云端数据库我无所谓。
但是笔记不一样。这是真正的隐私数据,我绝对不会把它放到别人家的数据库去。这是要积累很多年的。万一哪天Notion出点事儿,那就麻烦了。
Obsidian里的每一条笔记,都是一个md格式的文件,存在本地。你愿意的话,可以随时把它们拷到别的地方去。
至于Notion的AI能力,Obsidian也有。这款软件支持社区插件,可以在核心之上添加各种功能,其中就包括调用大模型。
Copilot这个插件特别好用。你可以用OpenAI、Google之类的闭源大模型,也可以连接Ollama、LM Studio去使用开源大模型。
更厉害的一点是,它还自带RAG能力,能把你的所有笔记变成一个知识库。比如我问AI一个问题,AI会参考我所有的笔记给出回答,并且回答末尾还有来源。点击就能跳转到对应的笔记。
这样一来,一个梯队就形成了:
首先,我把所有外部信息都存进Anything LLM,在AI的帮助下去消化和整理。
接着,这些信息当中有价值的部分,会转变成笔记,放在Obsidian里。
最后,当我要写篇文章的时候,AI又可以帮我从成百上千条笔记中提取出相关的内容,并且组织好逻辑之后给到我。
这就是这一整套AI笔记系统的运行逻辑。
为了让笔记分类更有条理,我在YouTube上看了很多大佬的建议,最终我用的是这样一个结构,分成四个类别:
第一,PROJECTS,就是各种具体的项目。比如,我的视频脚本创作就是一个项目。所以,各种灵感、选题,我都会放进去。
第二,AREAS,就是不同的领域。比如,AI是我关注的领域,主机游戏也是我关注的领域——这些不同领域的笔记自然得分开。
第三,FLEETING,就是各种临时的想法,没必要专门为它们创建一个又一个类别,全部都放到一个地方好了。
第四,PERMANENT,也就是最终的成品。比如,我每一期的视频脚本都会放到这个类别里。因为视频已经发布了嘛,所以这脚本自然也就Permanent了。
PAFP这四个类别,能把我想记的所有笔记都分类装进去,要找的时候就不会乱。
这就是我全套的AI笔记系统。它的出发点是我的思路、我的逻辑;这些逻辑投射过去,就形成了流程;流程中需要用到各种工具,于是就有了刚才介绍的软件;流程加上工具,就是一套系统,去完整表达我的思路、我的逻辑。
所以,工具都是次要的,你的需求是什么,你究竟想怎么做,才是最重要的。大家一定不要迷恋工具。
OK,以上就是本期内容,都是我自己经验总结,希望对大家有帮助。有什么想问我的,来知识星球找我。咱们下期见!