笔记系统
Key Takeaway
- 作者介绍了一种结合Deep Research、Obsidian和Cursor的“AI学习法”,旨在实现深度研究、知识提取和知识图谱构建。
- Deep Research提供高信息密度的输入,Obsidian通过反向链接功能将报告中的知识点系统性地关联起来。
- Cursor的Composer功能能够直接对Obsidian笔记进行知识点提取、解释和内容生成,充当强大的AI辅助工具。
- 这种学习法强调了AI工具组合使用的价值,以实现超越单一工具的效果。
- 建议在与AI工具交互时,将复杂任务分解为清晰的步骤,以提高效率和准确性。
- 长期来看,定期回顾和复习知识点对于巩固学习效果至关重要,可利用Obsidian的随机笔记插件辅助。
Full Content
介绍一个我最新研究出来的“AI学习法”,非常强大。它用到了Deep Research、Obsidian、Cursor,可以针对你的需求做深度研究、知识点提取和解释,并且形成知识图谱。
去年我出过一期社群专属视频,介绍了用Cursor搭配Obsidian使用。其实当时就有这个想法了。现在有Deep Research,这个AI学习法终于可以闭环了。
Deep Research是第一个环节。它可以提供信息密度非常大的输入。但是要完全消化的话,还需要对报告里的知识点做进一步处理。
于是,就需要Obsidian。它的反向链接功能特别好用。在一篇笔记内,如果提到了另一篇笔记,就可以链接过去,最终形成一个知识图谱。这是我把Deep Research的结果放进Obsidian的原因——让作为报告的笔记,和它相关的知识点笔记都关联在一起。这有助于我们系统性地去理解。
那么,问题又来了:知识点该如何提取和解释呢?于是,就需要Cursor。
Cursor的Composer功能可以直接对文档做修改,还可以创建新的文档。用它打开Obsidian存储在本地的笔记,通过对话就能完成一切。
最终,回到Obsidian里,我们不仅能看到一篇深度内容,而且每一个知识点都帮你捋得明明白白。剩下就靠你自己了。
AI都帮到这份上了,还有什么理由学不会?
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!
回到今天的主题:AI学习法。
我在社群内分享过,想借助AI获得Unfair Advantage,其中一个关键,就是知道如何组合使用各种AI工具,获得框架之外的效果。我的AI学习法就是最好的例子。
我给大家做一个实操演示。议题是:DeepSeek-R1有哪些技术创新?
Deep Research我用OpenAI的。目前在这个应用上,他们是全球最贵、全球最强,没有之一。稍等几分钟,一个非常详细的技术解析报告就生成了。
就像前边说的,这个报告信息密度很高。你要是硬啃的话,估计有点难度。于是,我把它复制下来,放到Obsidian里边。为了方便演示,我创建一个新的文件夹,这样一会儿大家看得比较清楚。
另外,我这边只截取了报告的第一部分,并且把Markdown格式全都去干净了。因为我发现,如果文章中有太多Markdown语法的话,会对Cursor有很大影响。很有可能它就没法对文章做修改了。
OK,接下来在Cursor中打开文件。记得在右边栏选择Composer,而不是Chat。
关于Cursor的三种模式——Chat、Composer、Agent,我之前在社群内说过:如果你要自主掌控的话,用Chat模式,可以选择接受哪一部分代码;如果你要全自动化的话,选择Agent。而Composer居中,有一定的自动化能力,正好是我们现在需要的。
接下来,把第一步需求告诉Cursor:帮咱们提取知识点,用Obsidian的反向链接格式标注出来。其中,那些常规名词不需要标注,比如公司和产品的名称。
我演示的文章不长,所以Cursor没多久就搞定了。如果是很长的文章,它会分批操作,需要我们说“继续”了,它才会继续。
第一步完成之后,这篇文章里的知识点都被标注出来了,非常清晰。第二步就是对每一个知识点都创建一个空白的md文档。文件名就是知识点的名称。也就是说,每一个知识点都是一条笔记。这样一来,通过反向链接功能,也就是前边的标注,就能把这些单独的知识点和原文串联在一起。
创建这些空白文档对Composer来说非常容易,很快就搞定了。那么第三步就是填充内容。在刚才创建的每一个空白文档内,补上这个知识点的解释,并且要通俗易懂。
因为这些都是技术名词,不是什么时效性比较强的内容,所以模型用自己的知识储备就可以搞定。
这三步完成之后,咱们就可以从Cursor回到Obsidian了。可以看到,点击文章中的知识点,就会跳转到知识点的笔记,里边有专门的解释。而打开文章的链接图谱,可以看到这篇笔记都关联了哪些笔记。需要的话,你也可以从图谱里任意跳转。
我这边演示的都是基本操作。大家在实际使用过程中可以做细化和调整。比如有哪些知识点你觉得不需要的话,可以手动删除,或者让Cursor帮你搞定。另外,当你吩咐Cursor干活的时候,尽量把步骤拆开,比如我刚才就是分成三次让它操作,并且交代得明明白白。这样才能避免很多奇怪的问题发生。
最后,One more thing:长期来看,你还需要时不时去回顾、去review之前的知识点,才能有比较好的效果。不然那些笔记都堆在那里,你再也记不得。所以,针对这种情况,我推荐安装这个插件:Open random note。就像名字说的那样,你点击一下,它就会随机打开一篇笔记。所以,你闲着无聊的时候就点几下,看几条笔记呗。相信我,真的有效果。
OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!
Key Takeaway
- 作者的AI笔记系统分为外部信息处理(Anything LLM)和笔记内容生成(Obsidian)两部分。
- Anything LLM支持多种大模型和向量数据库,能处理PDF和公众号文章,用于资料消化和存储。
- Obsidian是作者的终极笔记选择,因其速度快、数据本地化和丰富的AI插件(如Copilot)。
- 笔记系统通过Anything LLM过滤外部信息,将有价值部分转化为Obsidian笔记,再利用AI辅助内容生成。
- 笔记分类采用PROJECTS、AREAS、FLEETING、PERMANENT四种类别,以实现条理化管理。
- 强调工具是次要的,核心在于明确需求和逻辑,通过流程和工具构建系统。
Full Content
最近,我对我的笔记系统做了一次大升级,加上了大模型驱动的知识库,并且对整体的逻辑做了大调整。
我在这边分享一下思路和具体做法。大家可以先抄作业,然后边用边改。
整套系统分成两个部分:
第一个部分是外部信息的处理。
每天我们会看到大量的内容,有PDF格式的论文和研报,有网页形式的文章,等等。我们做的笔记,都是从这些外部信息的阅读、消化开始的。
那么,这么多的资料,怎么消化、存储、检索?这是这个环节的难点,也是AI发挥最大作用的地方。
第二个部分是笔记内容的生成。
这部分的核心问题有两个:
1、用什么样的逻辑做分类是最合理的。我之前就很烦,要么是分类太泛了,显得没啥意义;要么是突然有条新笔记,却发现哪都放不进去,就很无语。
2、用什么软件最合适。要快,要隐私安全,还要有AI功能作为辅助。
先说第一部分,对外部信息的处理,我用的工具是Anything LLM。
我在视频里、在知识星球里推荐过好多款这类型的工具。综合用下来,Anything LLM是最符合我需求的。两个原因:
第一,它可以接入市面上主流的大模型、嵌入模型和向量数据库。
比如,闭源大模型方面,御三家——OpenAI、Anthropic、Google,你填入API Key就可以使用。
开源大模型方面,Ollama和LM Studio它都支持。你把链接和端口填进去就搞定了。
在最近更新的版本里,Anything LLM把Ollama也集成进来了。它提供了一系列模型,比如我最常用的Mistral 7B,通过软件直接下载就可以用了。
有些模型实在太大了,本地肯定跑不了,那就花点钱、跑在云端,然后接到本地来用。
那么,要这么多种接入手段,有什么用呢?
我平时主要用两台电脑:
在家的时候,用台式机,也就是之前介绍过配置的那台PC,性能还OK,跑本地大模型没问题。
出门的时候,带的是Macbook Pro。这机子已经非常老了,是2017年买的,现在跑个大模型是没戏,所以只能通过API调用OpenAI的模型。
除了可以根据不同配置的电脑选用不同大模型之外,Anything LLM还支持让不同的Workspace用不同的模型。比如,有的Workspace对应的资料全是英文的,那我用Mistral就好;有的如果是中英文都有,那我用qwen-1.5。
第二,它除了支持PDF之类的文档,还能把公众号文章的内容扒下来。
我平时接收到的中文信息,有很大一部分来自公众号文章。
腾讯应该是有反扒的手段。我试过很多同类型的产品,不是谁都能通过链接把公众号文章内容给扒下来的。
这就是我对外部信息的处理方法。把AI知识库用来存储资料,帮我快速消化资料。之后需要找什么的时候,还能快速搜索。这个环节处理得好的话,其实后边的笔记环节就很好搞了。
我算是笔记应用的老用户了。从Evernote开始,得有十年了吧。这么多产品用下来,我目前的终极选择是:Obsidian。
我知道,肯定会有人问,为啥不用现在超火的Notion?两个原因。
第一,太慢了。
在Notion里,很多操作都会有那么一点点的loading时间,这是我接受不了的。我觉得,笔记应用就该像实体的笔记本一样,打开就能看,翻到哪是哪。
Obsidian就没有这种问题,特别丝滑。
第二,数据放在别人家。
在前边的外部信息处理上,我没有选择本地数据库是以为,那些文档、网页全是公开信息,没有任何隐私安全问题,所以放到云端数据库我无所谓。
但是笔记不一样。这是真正的隐私数据,我绝对不会把它放到别人家的数据库去。这是要积累很多年的。万一哪天Notion出点事儿,那就麻烦了。
Obsidian里的每一条笔记,都是一个md格式的文件,存在本地。你愿意的话,可以随时把它们拷到别的地方去。
至于Notion的AI能力,Obsidian也有。这款软件支持社区插件,可以在核心之上添加各种功能,其中就包括调用大模型。
Copilot这个插件特别好用。你可以用OpenAI、Google之类的闭源大模型,也可以连接Ollama、LM Studio去使用开源大模型。
更厉害的一点是,它还自带RAG能力,能把你的所有笔记变成一个知识库。比如我问AI一个问题,AI会参考我所有的笔记给出回答,并且回答末尾还有来源。点击就能跳转到对应的笔记。
这样一来,一个梯队就形成了:
首先,我把所有外部信息都存进Anything LLM,在AI的帮助下去消化和整理。