AI工具
Key Takeaway
- Web Clipper插件的Interpreter功能能实现AI自动总结、提炼公众号文章,并保存到Obsidian,极大提升信息处理效率。
- 该插件支持桌面端和移动端,可根据预设模板和触发条件自动化剪藏流程。
- 用户可选择不同大模型(如GPT-4o mini、Claude、Gemini、Ollama)进行内容处理,并自定义笔记内容和存储位置。
- Interpreter的配置包括设定大模型、模板(行为、存储位置、触发条件、笔记内容、处理上下文)等。
- 文章强调了Web Clipper在信息搜集和预处理方面的重要性,以及其在减轻阅读压力方面的实用价值。
Full Content
如何用AI自动总结、提炼一篇公众号文章,并且把这些生成的内容和原文一起保存进Obsidian,成为一条笔记?
我强烈推荐大家试试Web Clipper这款插件。它有个功能叫Interpreter,就能实现刚才说的需求。我快速演示一下,非常简单:
在桌面端,如果要处理这篇公众号文章的话,点击浏览器右上角的插件按钮。这时,插件发现这是一篇公众号文章,自动选择了我事先设定好的模板,用我事先设置好的GPT-4o mini做两件事:
第一,总结整篇文章。这样我就知道它大体上是关于什么的。
第二,提炼文章要点。这样我就知道它里边的要点。
然后,我只需要点击保存,刚才这两个部分会放在开头,后边跟上整篇文章的内容,全部打包成为一条笔记,存进Obsidian里边。
这整个过程我只点了两下,其它都是自动完成的。在移动端也是基本类似的操作。
用Safari打开公众号文章之后,点击地址栏左边的按钮,然后在扩展列表里点击插件,这时会出现跟桌面端基本一样的界面。这时再点击右边的Interpret,模型就会自动按照设定好的要求去处理文章。几秒钟之后,再点击保存就搞定了。
因为需求很简单,就是总结和提炼,所以在模型的选择上,我用了速度快、价格便宜的GPT-4o mini。你也用别的,比如Claude或者Gemini。
如果你注册御三家的账号有困难,还可以选择OpenRouter这样的第三方平台,它集成了市面上所有的主流模型。
如果你就是一分钱也不想花也OK,这款插件还支持Ollama。你就在机子上跑个小一点的模型,也很舒服。像Qwen就提供了好多参数的版本,看着挑就好。
哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600多位小伙伴付费加入啦!
回到今天的主题:Web Clipper的Interpreter功能。
这是我做的第三个关于这款插件的视频。大家如果需要基础操作的讲解的话,去翻我之前的。
我之所以这么看中它是因为,信息的搜集和预处理真的非常重要。我在半年多前还特意写过一个脚本,创建了一个Agent Workflow,专门实现刚才演示的那些功能。现在人家一个插件就搞定了,而且还支持移动端。
要配置Interpreter很简单,就两个步骤:
第一步,设定大模型。
点击Add Provider,在弹出界面里选择模型提供方。不同的提供方有不同的Base URL。大家如果之前写过脚本的话,对这个应该非常熟悉。
填完链接和API Key之后,还需要配置一下模型。因为一款模型可能有多个提供方,比如OpenAI和OpenRouter都有GPT系列,所以这边一定要选好。
至于Model ID,一定要按官方的格式填。不知道的话,就去后台看,每一款模型的ID肯定会有。
这两步搞定之后,Interpreter就算设置好了。接下来是模板的设置。我从上往下介绍。
Behavior指的是让插件怎么做,比如是创建一条新笔记,还是在现有的笔记后边做补充。
Note Location和Vault是告诉插件,把笔记存到哪个位置。
Template Triggers就是触发条件。当条件满足的时候,插件会自动选择这个模板,就省去你手动选择的麻烦。我这边设定的条件是公众号文章的网址。
Note Content就是创建的笔记需要包含什么内容。我设定了三个:1、Summary;2、Key Facts;3、全文。大家可以根据自己的需要做调整。
Interpreter Context就是你希望插件处理哪部分的内容。我在这边填Content,意思就是让它处理整篇文章。这个大家也可以根据自己的需求去修改,比如让插件只抓取网页某个部分的内容。
做完这两个部分的设置后,Web Clipper插件就会自动选择模板、自动做总结和提炼。这个对减轻我们平时的阅读压力真的很有帮助。大家看完了一定试试。
OK,以上就是本期内容。想聊AI,就来我们newtype社群。那咱们下期见!
Key Takeaway
- 作者介绍了一种结合Deep Research、Obsidian和Cursor的“AI学习法”,旨在实现深度研究、知识提取和知识图谱构建。
- Deep Research提供高信息密度的输入,Obsidian通过反向链接功能将报告中的知识点系统性地关联起来。
- Cursor的Composer功能能够直接对Obsidian笔记进行知识点提取、解释和内容生成,充当强大的AI辅助工具。
- 这种学习法强调了AI工具组合使用的价值,以实现超越单一工具的效果。
- 建议在与AI工具交互时,将复杂任务分解为清晰的步骤,以提高效率和准确性。
- 长期来看,定期回顾和复习知识点对于巩固学习效果至关重要,可利用Obsidian的随机笔记插件辅助。
Full Content
介绍一个我最新研究出来的“AI学习法”,非常强大。它用到了Deep Research、Obsidian、Cursor,可以针对你的需求做深度研究、知识点提取和解释,并且形成知识图谱。
去年我出过一期社群专属视频,介绍了用Cursor搭配Obsidian使用。其实当时就有这个想法了。现在有Deep Research,这个AI学习法终于可以闭环了。
Deep Research是第一个环节。它可以提供信息密度非常大的输入。但是要完全消化的话,还需要对报告里的知识点做进一步处理。
于是,就需要Obsidian。它的反向链接功能特别好用。在一篇笔记内,如果提到了另一篇笔记,就可以链接过去,最终形成一个知识图谱。这是我把Deep Research的结果放进Obsidian的原因——让作为报告的笔记,和它相关的知识点笔记都关联在一起。这有助于我们系统性地去理解。
那么,问题又来了:知识点该如何提取和解释呢?于是,就需要Cursor。
Cursor的Composer功能可以直接对文档做修改,还可以创建新的文档。用它打开Obsidian存储在本地的笔记,通过对话就能完成一切。
最终,回到Obsidian里,我们不仅能看到一篇深度内容,而且每一个知识点都帮你捋得明明白白。剩下就靠你自己了。
AI都帮到这份上了,还有什么理由学不会?
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!
回到今天的主题:AI学习法。
我在社群内分享过,想借助AI获得Unfair Advantage,其中一个关键,就是知道如何组合使用各种AI工具,获得框架之外的效果。我的AI学习法就是最好的例子。
我给大家做一个实操演示。议题是:DeepSeek-R1有哪些技术创新?
Deep Research我用OpenAI的。目前在这个应用上,他们是全球最贵、全球最强,没有之一。稍等几分钟,一个非常详细的技术解析报告就生成了。
就像前边说的,这个报告信息密度很高。你要是硬啃的话,估计有点难度。于是,我把它复制下来,放到Obsidian里边。为了方便演示,我创建一个新的文件夹,这样一会儿大家看得比较清楚。
另外,我这边只截取了报告的第一部分,并且把Markdown格式全都去干净了。因为我发现,如果文章中有太多Markdown语法的话,会对Cursor有很大影响。很有可能它就没法对文章做修改了。
OK,接下来在Cursor中打开文件。记得在右边栏选择Composer,而不是Chat。
关于Cursor的三种模式——Chat、Composer、Agent,我之前在社群内说过:如果你要自主掌控的话,用Chat模式,可以选择接受哪一部分代码;如果你要全自动化的话,选择Agent。而Composer居中,有一定的自动化能力,正好是我们现在需要的。
接下来,把第一步需求告诉Cursor:帮咱们提取知识点,用Obsidian的反向链接格式标注出来。其中,那些常规名词不需要标注,比如公司和产品的名称。
我演示的文章不长,所以Cursor没多久就搞定了。如果是很长的文章,它会分批操作,需要我们说“继续”了,它才会继续。
第一步完成之后,这篇文章里的知识点都被标注出来了,非常清晰。第二步就是对每一个知识点都创建一个空白的md文档。文件名就是知识点的名称。也就是说,每一个知识点都是一条笔记。这样一来,通过反向链接功能,也就是前边的标注,就能把这些单独的知识点和原文串联在一起。
创建这些空白文档对Composer来说非常容易,很快就搞定了。那么第三步就是填充内容。在刚才创建的每一个空白文档内,补上这个知识点的解释,并且要通俗易懂。
因为这些都是技术名词,不是什么时效性比较强的内容,所以模型用自己的知识储备就可以搞定。
这三步完成之后,咱们就可以从Cursor回到Obsidian了。可以看到,点击文章中的知识点,就会跳转到知识点的笔记,里边有专门的解释。而打开文章的链接图谱,可以看到这篇笔记都关联了哪些笔记。需要的话,你也可以从图谱里任意跳转。
我这边演示的都是基本操作。大家在实际使用过程中可以做细化和调整。比如有哪些知识点你觉得不需要的话,可以手动删除,或者让Cursor帮你搞定。另外,当你吩咐Cursor干活的时候,尽量把步骤拆开,比如我刚才就是分成三次让它操作,并且交代得明明白白。这样才能避免很多奇怪的问题发生。
最后,One more thing:长期来看,你还需要时不时去回顾、去review之前的知识点,才能有比较好的效果。不然那些笔记都堆在那里,你再也记不得。所以,针对这种情况,我推荐安装这个插件:Open random note。就像名字说的那样,你点击一下,它就会随机打开一篇笔记。所以,你闲着无聊的时候就点几下,看几条笔记呗。相信我,真的有效果。
OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!
Key Takeaway
- Cursor作为编程软件,天生具备RAG能力,能对本地文件进行索引和处理,使其成为强大的知识库应用。
- Cursor与Obsidian的本地化存储特性完美结合,用户可以通过Cursor直接操作和利用Obsidian的笔记文件。
- 通过创建
cursorrules
文档,用户可以自定义Cursor的工作方式,例如优先检索本地文档、进行联网搜索,并调用特定的MCPs(如Markitdown用于PDF转换,Sequential Thinking用于复杂问题拆解)。 - Cursor的Composer功能和聊天功能可以对笔记进行总结、提炼和扩写,充当Obsidian的“超级AI插件”。
- 这种组合工作流能够兼顾本地知识和网络信息,提供逻辑性强的答案,极大提升知识管理和创作效率。
Full Content
最好用的知识库应用,就是Cursor,没有之一!
你们经常看我发的视频就知道,过去一年多,我用了太多太多知识工具。越用越发现:大道至简,用Cursor就可以了。
你想嘛,RAG能力Cursor本来就有。它是个编程软件。既然要编程,肯定得了解所有代码的情况。所以,当Cursor打开文件夹之后,就会对文件夹内的所有文档进行索引和哈希处理。像Markdown之类的文件,它会进行切块、嵌入向量。
所以,知识库应用该有的RAG能力,Cursor天生就有。不管是代码还是纯文本,它都能一样处理。而且,因为它要写代码,所以肯定要有创建文档、修改文档的能力。这就意味着,它可以帮我们直接写笔记、写文章,对吧?
这还没完。Cursor本身具备搜索能力。你不用特意添加什么工具,它就可以联网搜索,甚至直接打开一个网页。
最后,只要出现了最先进的模型,Cursor一定会第一时间支持。所以这20美元的订阅,我个人认为是非常非常划算的。当然,如果你不想用Cursor的模型,也可以填自己的API Key进去。
那么,我们该怎么用Cursor配合自己的文档进行工作呢?
我的经验是,一定要创建一个cursorrules文档。这个文档放在根目录下,用来告诉Cursor必须遵守哪些项目规则。我给你们演示一下。
你看,我在文档里规定了:
第一,回答之前都必须首先检索文件夹内的所有文档,看看有没有相关的内容可以作为上下文。
第二,光查了本地文档还不够,还得联网搜索,这样信息才齐全。
除了这两个基本要求,我还给Cursor配了两个MCP:
如果遇上PDF文档,就用Markitdown这个MCP做转化。不然Cursor就得写个Python脚本进行处理,就非常麻烦了。
如果问题有点复杂,那就用Sequential Thinking进行拆解、组织内容,这样逻辑性才强。
这两个MCP的用途和触发条件,我都给Cursor写明白了。
最后,我还附上了一个示例,包含每一步怎么处理,清清楚楚。AI绝对可以理解。
有了这一大套底层规则,Cursor就知道怎么跟我配合了。
比如我问它:如何在本地部署知识库?
首先,它花了几秒钟思考这个问题。因为我把Thinking选项打开了。
接着,它把文件夹内的文档检索了一遍。
然后,联网搜索,进一步补充信息。
最后,用Sequential Thinking对所有内容进行梳理,把逻辑整理清楚。
你看,使用这种方法,这样的流程跑下来,知识库里的内容和网上的内容都兼顾了,获得的答案逻辑性也很强。这个就是我说Cursor 最强知识库应用的原因。
我刚才演示的规则是我的需求。大家可以根据自己的需求做修改。其实你让Cursor帮你写也是可以的。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Gemini和Grok是两个被低估的顶级AI应用,它们在不同方面展现出强大的生产力。
- Gemini提供多功能体验,包括快速回答(Flash)、文章创作(Canvas)和深度报告(Deep Research),并能与Google文档和NotebookLM无缝集成,支持深度学习。
- Grok在模型回答上更具“人味”,产品设计简洁,并拥有独特的Twitter数据源,使其在获取用户真实反馈方面具有优势。
- 结合使用Gemini(获取主流媒体信息)和Grok(获取社交媒体信息)可以获得更全面和真实的洞察。
Full Content
有两个顶级AI应用还在被国人忽视。一个是Gemini,一个是Grok。
Gemini我已经推荐得足够多了。你看,过去半年,我在社群内真的是苦口婆心、反复强调。我从1.5的模型开始,用到了2.0、2.5,真的是越用越喜欢。不说那些复杂的,就说日常使用,就像我这个帖子说的:
如果你只想要个快速回答,那直接问Gemini 2.0 Flash。它速度快,推理强,运行还稳定。
如果你想要稍微深入一点,那就把Canvas打开。Gemini 2.0 Flash会按照写文章的标准来回答你。
如果你想要详尽的报告,那把Deep Research打开。Gemini 2.0 Flash会按照报告的标准来输出。
我直接给你们来个演示吧。
比如,我问Gemini:什么是Reasoning model?它很快给出一个简要的回答。
我把Canvas也就是画布打开。再问它同样的问题。这个时候,回答速度稍微慢一些,但是详细程度会高得多。在Canvas里边,你可以对文本进行排版、编辑,也可以选中一段进行提问。也就是说,用这个功能,你可以跟Gemini配合起来完成一篇文章的创作。
如果我把Deep Research打开呢?还是同样的问题——什么是Reasoning model。Gemini会帮我拆解议题,然后查找上百个网页,最终完成深度报告的输出。
你看,就这么简单的三个功能——直接对话、Canvas和Deep Research,覆盖了我们日常使用AI的主要场景。
更进一步,如果你觉得这些回答有价值,还可以把它们保存到Google文档里。
刚才介绍的三个功能,后两个都可以导出到Google文档。然后,就像我前一个视频里介绍的,打开NotebookLM,把Google文档里的相关内容全部导入,然后就可以进行深度学习了。
Gemini还有别的功能,比如画图什么的,我就不多说了。光是刚才我介绍的那些,就足以值回票价。
而且,Google还在不断更新。就在昨天,他们推出了首个混合推理模型——Gemini 2.5 Flash。你可以自主选择要不要打开思考模式,甚至还可以设定要投入多少资源进行思考。这个模型的出现,更加强化我要继续拥抱Gemini的信心。
那么,既然Gemini这么牛逼,还要Grok干嘛呢?三个原因:
第一,从模型回答的感觉上看,Grok 3要比Gemini 2.0好得多。
Gemini 2.0还是有一种生硬感、机械感,这可能就是Google独有的味道吧。而Grok 3的回答就比较有“人味”,所以我会逐渐倾向于多跟它交流。
第二,从产品角度来看,Grok最完整。
就像之前我在社群里说的,Grok没搞那么长的模型列表让用户选择,就两个按钮:深度思考,和深度搜索。没有模型之分,只有模式之分,甚至再到后边连模式都不需要选择了,AI会自主判断。这个才是正道。像OpenAI那种,有点丧心病狂了。
另外,前两天的更新,给Grok补上了Canvas和Workspace功能。Canvas和别家差不多,就是标准的画布。而Workspace,就类似知识库的功能,特别好用。
现在,Grok已经集齐目前的主流功能。产品层面已经相当成熟了。
第三,从数据源角度来看,Grok拥有别家都没有的Twitter数据。
Twitter现在是最有影响力的社交媒体,它的数据对于AI来说很重要。如果能把Twitter所代表的社交媒体数据,和Google那边掌握的主流媒体数据合并起来,那对提升AI的回答质量肯定有帮助。具体怎么做呢?我再演示一下。
其实这个方法我在社群内也分享过。很简单,Grok的Workspace功能除了支持本地文档上传之外,还支持从Google Drive里导入——这个就是关键功能。
我会先用Gemini做一轮Deep Research,把报告导入Google文档。然后,到Grok里添加这些Google文档,并且在Prompt里强调:附件信息只是参考,你要有自己的搜索和判断。另外,Twitter上用户都有哪些反馈?重点看看。
注意看Grok的分析过程。从主流媒体的信息搜集来看,它确实不如Gemini能搜到那么多。其实不只是它,OpenAI的搜索范围也有限。但是,Grok能搜集Twitter上的数据,包括帖子和评论,这个就是它的独有价值。
我之前在公关营销行业干了十几年,非常清楚只有你预算够,绝大部分主流媒体的内容都可以买,或者都可以影响。相比之下,用户的实际使用反馈就相对真实得多。所以,当我想了解的议题涉及到用户口碑的话,我肯定会通过Grok去搜集,并且跟Gemini那边的主流媒体信息进行合并。
刚才介绍的这两款AI工具的使用经验,看起来确实平平无奇,不像很多AI自媒体介绍的那些玩法那么酷炫,但这些都是能帮到你的真东西。如果你觉得有价值,还想了解更多的话,记得加入我们社群。
OK,以上就是本期内容。那咱们下期见!
Key Takeaway
- Omnivore停运后,Web Clipper成为替代方案,它是一款浏览器插件,能将网页内容剪藏并同步到Obsidian。
- Web Clipper支持在桌面端和移动端使用,能保存整篇文章或部分内容,并支持自定义模板和自动触发。
- 插件设置包括绑定Obsidian Vault、设置存储位置、行为(新建笔记或添加到现有笔记)和触发条件(根据网址自动选择模板)。
- Web Clipper的亮点在于其自动化能力,能减轻用户阅读压力,提升信息收集效率。
- 文章强调了Web Clipper在构建个人AI知识系统中的重要作用。
Full Content
Omnivore月底就要停止服务了。这款软件我用了很久。它可以把所有我想看的文章都保存进Obsidian里边,完成信息输入,这样我的AI知识系统才完整。
替代Omnivore的方案有很多。在官方Blog里就推荐了几款,比如,不想折腾的话,可以选择收费的Readwise;愿意折腾的话,可以试试self-hosting的方式。
我从来都是属于有现成的就绝不折腾的类型。看了一圈下来,目前我的选择是Web Clipper。
这是一款浏览器插件,Chrome、Edge等等主流浏览器都支持。安装之后,一切设置都在插件端完成,不需要到Obsidian里调整什么。我判断,它就是在本地创建一个md文件,也就是一条新笔记,不走服务器什么的,所以非常简单、直接。
如果你想保存整篇文章,点两下按钮就好。
如果你想保存文章里的一部分内容,点击右上角的画笔按钮,到文章里highlight出想要保存的段落。
如果你想按自己设定好的格式保存内容,点击左上角的模板名称,从下拉列表里选中想用的模板。
更爽的是,Clipper可以根据网址自动判断要用哪个模板。这就省去了每次都要选择模板的麻烦。
哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600位小伙伴付费加入啦!
回到今天的主题:Web Clipper。
其实我在社群里推荐过这款插件。但是有些小伙伴不太懂具体怎么设置。所以就有了本期视频。
安装好插件之后,点击右上角的齿轮按钮,就可以进入设置。在General页面,最重要的是绑定你的Vault,这样插件才知道把文章存到哪个位置。
大家如果不确定自己Vault的名称的话,打开Obsidian,在左下角就可以看到。我这边的名称是Documents,于是把这个名称填过去,敲个回车就算完成了。
在General页面还可以设置快捷键,这个很实用。大家可以用默认的,也可以改成自己顺手的。我机子上的快捷键已经够多了,所以这边就不调整了,用默认的就好。
General页面剩下的选项,以及另外两个页面,我都没动。重点是模板的设置。我把这部分分成三块。
第一,存储位置设置。
之前我们在General页面里设置了Vault,这时候可以在下拉列表里选中。那么,具体要存在哪个文件夹里呢?
比如,在我的笔记结构里,所有的信息输入都放在Input文件夹内,然后分成两个子文件夹:一个放文章,一个放论文。所以,在模板的设置里边,我就把这个文件夹的层级给填进去,完成整个存储位置的设置。
第二,行为设置。
一般来说,当我们保存一篇文章的时候,是希望插件去新建一条笔记的。但是,这个对于保存文章的部分内容可能不适用。因为我们阅读文章的时候,经常是这里想保存一句话,那边想保存一句话。如果对每一条Highlight都创建一条笔记的话,可能会太多太杂了。
所以,针对Highlight的情况,我选择让插件把内容添加到现有笔记里,并且放在下边。这样一来,当我阅读完一篇文章之后,需要保存的内容都汇总到一条笔记里,并且按照先后顺序排好。
第三,触发设置。
前边我说过,Clipper可以根据网址自动判断要用哪个模板。比如,我创建了一个公众号文章的模板,里边没添加任何属性,就是单纯的内容。这个时候,我在Template triggers里把公众号的网址填上,也就是mp.weixin.qq.com——所有的公众号文章的网址都是以这一串为开头的。
这样一来,每当我保存公众号文章的时候,插件就会根据网址做判断,然后自动选择对应的模板。是不是省事多了?
模板的创建,以及我刚才分享的三个设置,是Clipper这款插件的核心用法。大家明白逻辑之后,就可以根据自己的情况去做定制,把Obsidian的效率发挥到极致。
OK,以上就是本期内容。想讨论AI,就来我们newtype社群。那咱们下期见!
Key Takeaway
- PDF++插件能帮助用户在Obsidian中高效地阅读PDF并做笔记,支持选中内容自动粘贴、颜色区分和跳转原文链接。
- Smart Connection插件利用AI的反向链接功能,自动分析笔记相关性,并支持可视化展示,解决了手动关联的痛点。
- Copilot插件是Obsidian中功能最强大的AI插件,支持多种大模型、本地知识库功能(RAG)和实用的预设功能(总结、翻译)。
- 这三款插件(PDF++、Smart Connection、Copilot)是Obsidian的必备,能显著提升笔记效率和知识管理能力。
- 文章强调了Obsidian通过插件扩展AI能力,使其成为强大的个人知识管理工具。
Full Content
给大家分享三个Obsidian必备插件,绝对能提升你的生产效率。这三款插件都是我日常一直在用的。那咱们不废话,直接开始。
第一款插件:PDF++。
如果你有一边看PDF一边做笔记的习惯,那这个插件就肯定要安装了。咱们来看效果。
在Obsidian里边,把PDF和笔记左右铺开。在PDF内选中想要保存的部分。这个时候,选中的部分会自动贴到笔记里。用这个方法,咱们就可以边看边记,把想要的内容都摘出来,特别好使。
如果不想自动也OK,把左边的按钮点掉。这时你再选中,就需要在笔记里手动粘贴。想要改颜色的话,可以点上边的色块。选中再粘贴,那么贴过来就是对应的颜色了。通过不同的颜色,就可以区分不同的内容。
除了颜色,这款插件还支持不同的复制格式。大家可以在这个下拉列表里选中需要的格式。值得注意的是,点击里边的链接可以直接打开并跳转到PDF对应的位置,这个超级有用、超级方便。
第二款插件:Smart Connection。
Obsidian有一个非常核心的功能叫反向链接。当你在一条笔记里提到某一个概念正好是另一条笔记的时候,就可以把它们两个关联起来,并且可以跳转。
这样一来,笔记就不是孤岛,而是一个互相关联的整体。当你的笔记积累到上千条的时候就会发现,通过这种串联,你的知识体系就成型了。
但是,这个反向链接有一个很让人头大的地方是:它需要手动操作。所以我经常需要去Review之前的笔记,不断思考,怎么做一点点修改,把两条笔记给关联起来。真的就挺烦的。
其实这个关联的过程,完全可以让AI来完成。Smart Connection就是干这个的。
打开一条笔记,点开右边的Smart Connection就会看到,AI根据相关性帮咱们筛选出了一堆笔记。数值越高,关联性越强。点击笔记就可以跳转过去。
AI之所以能做到相关性分析是因为,它用到了嵌入模型去处理笔记。官方默认的是BGE的模型。如果你要用别的也可以,比如OpenAI的,把自己的API Key填进去就好。嵌入模型的费用很低,大家不必心疼。
在Smart Connection的基础上,我推荐再安装一个插件叫Smart Connection Visualizer。它的作用是可视化,就跟官方的功能一样。离中心笔记越近,相关性越高。
Smart Connection除了分析笔记相关性功能之外,还有大模型对话功能。但说实话,它这功能做得太糟了,我是完全不用。如果有这方面需求,我会用接下来要介绍的第三款插件:
Copilot。
我试过很多AI插件。综合来看,它是最好的。
第一,Copilot支持的模型多。我平时用得比较多的,除了GPT-4o,就是Command R Plus和Qwen2.5。如果是在家里的PC上,我用Ollama跑Qwen2.5;如果是在MacBook上,我就直接用API。
第二,Copilot有本地知识库功能。它可以对Obsidian里所有的笔记创建索引,然后给到模型做参考。它还可以针对单独一篇笔记做问答。比如我就经常把一篇超长的PDF转成MD格式,然后存进Obsidian,在AI的辅助下慢慢消化。
第三,Copilot有很多实用的预设功能。打开面板、输入Copilot就会看到长长的一串。我最常用的是这两个:总结;翻译。
所有我想看的公众号文章,我都会通过Omnivor同步到Obsidian里边,这个之前的视频介绍过。那么同步过来之后,可以全部选中,先让AI总结,特别实用。
至于翻译,中译英或者英译中都可以。
这两个功能我都特地设置了快捷键。打开设置,在快捷键页面搜索Copilot,然后找到想要设置的功能就可以。
刚才介绍的这三个插件——PDF++、Smart Connection和Copilot,是我每天都会用的。对我来说,别的插件可以不装,但这三个插件绝对是必备的。大家有什么推荐也可以在评论区里说一声。
OK,以上就是本期内容。想要交流AI就来我们newtype社群。那咱们下期见!
Key Takeaway
- Obsidian是搭建个人笔记系统的理想工具,结合AI插件可实现“第二大脑”功能。
- Text Generator插件能将Obsidian变为内置ChatGPT,支持总结、头脑风暴、拟大纲、生成标签等,且模板可自定义。
- Copilot插件提供自由问答、基于笔记交互和知识库查询功能,支持多种大模型和联网搜索。
- 这两款AI插件能极大提升Obsidian的效率和功能,使其在笔记记录、内容生成和知识管理方面更强大。
- 文章强调了AI在笔记系统中的辅助作用,以及Obsidian作为本地化笔记软件的优势。
Full Content
现在是搭建个人笔记系统最好的时候。就像我在知识星球newtype里说的那样:
我们的大脑是不适合用来记东西的,而应该去做创造性的工作。现在有了大模型技术、有了AI,笔记系统一下实现质的飞跃——不管你是要查询还是生成,都超级方便。这才是名副其实的Second Brain、第二大脑。
我在上一期视频里分享了我个人的AI笔记系统。这整套系统就像一个漏斗,把我每天接触到的海量外部信息层层过滤、提炼,最终变成最凝练的笔记,内化成我自己的东西。
其中,笔记这个环节,我用的工具是Obsidian。这款软件在国外很有名,但是在国内还非常小众。之后我会结合我的使用经验,多出点视频介绍它。我非常确定,只要你上手之后,肯定就明白我为什么这么大力推荐它了。
本期视频,我先介绍两个Obsidian里的AI插件,很好用,也很重要。
OK,咱们不废话,从第一款插件开始。
Text Generator
Text Generator是我用得最频繁的插件。你可以把它理解为就是Obsidian内置的ChatGPT。比如:
- 一条笔记的内容太多了,我可以让它帮我总结、简化;
- 基于选定的内容,我可以让它帮我头脑风暴,想更多点子;
- 我还可以让它帮我拟文章大纲、起标题,或者根据笔记内容生成标签——省得我每次想半天,总怕漏打了哪个标签。
这些用法就跟你之前用ChatGPT一样。只不过,所有指令、Prompt都被做成模板了,不用你再去输入。如果你有特定需求的话,可以直接去脚本里修改,很容易。
要安装这个插件,来到【设置】里的【社区插件】,然后点击【浏览】,输入插件名称,最后下载和启用。
搞定之后,软件左边栏有一个【Text Generator: Templates Packages Manager】的按钮。打开之后,可以下载现成的模板。这些模板存储的位置就在你的Vault里,多了个textgenerator的文件夹。
在文件夹里,你可以挨个查看每一个模板的意思,都是非常简单的英文。
比如summarize这个。括号内的“context”就是上下文,也就是你选定的笔记内容。这一行的作用是告诉AI,你想对什么内容进行处理。下一行“prompt: summarize the content”就是字面的意思,让AI把上下文里的内容总结了。
在笔记里使用的话,按快捷键打开命令面板,输入“text”,在下拉列表里找到“Generate & Insert”这一项。在里边找到“Summarize”,然后点击执行。
等个几秒钟,我们会看到,AI确实总结完了,但是是英文的。这时我们只需要对模板做一点点修改,在Prompt里边加上“in Chinese”就完事了。
再执行一次,现在输出的结果就是中文的了。
你看,对现成模板的修改就是这么简单。甚至你可以按照自己的需求,用同样的模板格式,去制作你自己的模板——这是我最最喜欢这款插件的地方。
如果你觉得刚才那些操作比较麻烦的话,还可以设置快捷键。这样一键就能打开“Generate & Insert”,然后选择你想使用的模板。
当然,你也可以不用任何模板,直接点击左边的“Generate”按钮,AI会顺着上下文的意思去自由发挥。
Copilot
我要推荐的第二个插件是Copilot。
Text Generator主要是通过模板、针对一条笔记发挥作用。如果我就是想自由问答呢?如果我想在所有笔记的基础上生成一点什么呢?Copilot的作用就在这里。
我一般在这三种情况下使用这款插件。
第一,对话 + 搜索。
我其实很烦,每次想用大模型的时候,都要再另外去开个网页,比如ChatGPT。我觉得但凡你是个生产力工具,就应该集成了大模型的能力。做笔记的时候也是这样。如果还要从Obsidian切到浏览器,那其实是对思路的干扰。
所以,Copilot能在软件右侧提供这样一个对话框就挺好的。我想用哪个大模型就直接切换。如果要联网简单搜点什么,就切到Open Router。它是一个大模型的集成平台。我通过它去使用Perplexity来搜索。
这样一来,我在Obsidian里就能完成该做的事儿,不需要别的软件辅助——这一点对我来说很重要。
第二,基于笔记做交互。
Copilot有一个特别贴心的功能,就是下边这个Send Note按钮。点击之后,就会把当前打开的笔记自动发送给AI,这样就省去了中间的环节,可以直接开始对话。
我每次写好脚本之后,都会把脚本发给AI,让它帮我生成个大纲。我通过大纲就能知道,这个脚本的逻辑是不是清晰的。如果AI总结的大纲有点混乱,那肯定是我的逻辑有问题,否则AI肯定能总结清楚。
Key Takeaway
- Claude Code被认为是地球上最强的AI编程工具,因为它与Claude模型深度适配和优化,且不计较上下文长度消耗。
/init
命令用于初始化项目,创建CLAUDE.md
文件,记录项目背景信息,提高效率和上下文一致性。- Plan Mode允许用户在执行复杂功能前,让Claude Code进行规划,尤其适用于不确定如何操作的场景。
/ide
命令支持Claude Code与VS Code、Cursor等IDE集成,提供更好的代码修改和提示体验。- 用户可以自定义命令,将常用操作(如解释代码)转化为快捷命令,提高工作效率。
/cost
命令用于查看API消耗,并可通过/model
命令切换模型以节省成本。- 作者强调,模型能力相同时,拥有更多工具的AI生产力更高,鼓励用户积极使用和探索MCP。
Full Content
地球上最好的AI编程工具,肯定是Claude Code。而且它接下来还会越来越好。
为什么它最强?我在社群里发过这么一段话:
如果把Claude模型比作引擎的话,那么,虽然各家公司都可以买到这个引擎,然后组装成赛车,但是只有Anthropic能发挥出它的究极实力。
大概率,Anthropic在训练Claude 4的时候,就已经把Claude Code内置的十几种工具给它用上了,对它做针对性的强化训练。
也就是说,这款引擎在研发阶段就已经跟底盘等等系统做适配、做优化了。它们就是最佳组合。其他厂商又怎么可能跟得上。
而且为了效果,Anthropic现在特别豪气,可以不计较上下文长度的消耗。相比之下,Cursor他们就得精打细算过日子,导致有时用户体验会很差。
Claude Code这么强,但是国内介绍得不多。原因很简单:中国的自媒体水平太差了。他们就只会喊“震惊”、“放大招”。碰上这种复杂的工具,还是命令行,而且还需要配置纯净的住宅IP,他们就不知道怎么下手了。
没有关系,我会出一系列视频深度介绍这款工具。今天先来五个非常实用的Tips,帮助大家用好Claude Code。
/init
当你开始一个新的项目,或者让Claude Code中途参与某个项目的时候,一定要先运行/init这条命令,也就是initialize,初始化。
这条命令最主要的作用,是创建一个CLAUDE.md文件。这个文件会包含项目所有的背景信息,包括:项目的核心概述和目标;重要的代码约定和风格指南;关键的文件和工具函数列表,等等。
有了这份文件,每次你启动Claude Code,它就会自动加载,这样它就明白整个项目的情况,不需要你重复说明。另外,当你的项目开发有了任何进展,也可以让Claude把进展写进这个文档。
所以,这行简单的命令,以及它生成的CLAUDE.md文件对于提高效率、保持上下文一致性非常重要。大家记得用起来。
Plan Mode
大部分情况下,我们都是让Claude Code在那边“自动驾驶”。但是,当有一些比较复杂的功能想要实现,或者我们自己也没想好究竟该怎么做的时候,可以切换到Plan Mode,让Claude Code先帮我们做好规划,然后再执行。
要切换到Plan Mode很简单,按快捷键shift加tab就行。比如,我想要提升高并发、服务器断连的应对能力。我自己想了一些解决方案,比如搞个API Key的备用池子等等。我把这些告诉Claude Code,让它帮我完整规划。
接到需求后,它会把需求有关的代码全部过一遍,然后给出非常详细的方案。如果觉得OK,可以让它照着开始执行。
说真的,这个模式挺好用的。当你拿不准的时候,记得让Claude帮你规划。
/ide
虽然Claude Code主要通过命令行界面,也就是CLI进行交互,在终端里运行,但是它也支持跟VS Code、Cursor集成,让用户在IDE的环境中获得更好的体验。
比如,集成之后,你可以看到文件中代码的改动,就像在Cursor里看到的一样。另外,当你选中几行代码之后,Claude Code那边也会有提示。
那么,要做到这一点,你需要做两件事,非常简单:
第一,安装Claude Code插件。这个搜一下就有,然后点击install安装。
第二,运行/ide命令,然后选择对应的IDE,比如我这边是Cursor。然后回车就搞定了。
Custom Command
Claude Code有很多现成的命令可以使用。除此之外,其实你也可以根据自己的需要去自定义命令。
Key Takeaway
- 作者介绍了两种使用Cursor进行UI设计的方法:免费的通过通用大模型生成JSON配置,以及付费的通过v0模型API。
- 通用大模型直接生成UI效果不佳,但通过JSON等结构化数据输入能显著提高准确性和效率。
- v0模型是专门针对UI和前端开发训练的,通过API接入Cursor可以获得更好的UI生成效果。
- 完成UI后,可以通过Framer Motion或Reactbits等工具添加动画效果,提升用户体验。
- 现代前端UI开发工具箱包括React、Radix UI、Tailwind CSS和Framer Motion。
Full Content
用Cursor做UI,我这边有两个最简单、最有效的方法——一个免费,一个付费。不管你是做网页的UI还是应用程序的UI,都可以。
为什么不直接用Cursor里的模型?因为那些模型画UI都太差了,即使是Claude 4也不太行。
举个例子,这是我用Keynote为第二款产品画的UI。我把图片导出来,贴进Cursor里,使用MAX模式,选择目前最牛逼的模型Claude Opus 4,让它照着生成。
你看,这是它最终的成品,真挺拉跨的。比如,大标题分成了两行;Submit按钮没有居中;How It Works部分明明有三个容器,结果有一个跑到下边去了。
我做上一款产品Prompt House的时候,就遇到了模型怎么都画不好UI情况。非常恼火。后来实在没办法,只能让它告诉我具体的代码位置,我手动调整。
那今天要分享的方法,是这几天我新学到的。先说免费的。
当你有了一张UI的图片,不要直接放到Cursor里。你可以打开Gemini、ChatGPT或者Claude——不管哪个都行。比如我这边用的是Gemini,并且打开了Canvas功能。
我把图片贴进去,让它根据图片的样子生成一份JSON格式的设计系统配置文件。这份JSON输出包含了整体设计风格、结构元素和布局原则等等。
然后,再把这份JSON配置贴到Cursor里边,让模型完全按照它来输出。你看,这个结果是不是好多了?基本是一模一样。
那么,为什么这套方法有效?
因为,虽然模型理解自然语言完全没问题,但是一旦涉及需要精确、结构化、无歧义的数据输入场景,JSON这样的结构化数据格式,能让模型的理解更准确、处理更高效、输出更稳定。
OK,这是第一种方法,完全免费,但是略微麻烦一点。如果你做UI的需求比较强,比如需要来回修改什么的,那我推荐,直接通过API调用v0的模型。
v0模型是Vercel推出的,专门针对UI和前端开发做了训练。所以在处理这个类型的工作上,v0会比Claude之类的通用大模型更擅长、更适合。
我之前经常用v0.dev这个网页来生成UI。那如果要用API调用模型的话,就需要订阅,一个月20美金。我一般需要的时候就开一个月,集中把前端的工作都搞定了。
订阅之后,来到后台,可以生成一个API Key。回到Cursor,在模型设置里,选择API Keys选项,在这边我们可以使用自己的Key。
因为v0的API符合OpenAI的规范,所以我们把Override OpenAI Base URL选项打开。把URL中间部分改成v0.dev。填入v0的API Key,再选择Verify就搞定了。
当我们要使用的时候,可以选择一个OpenAI的模型,比如GPT-4o。虽然它显示的是GPT-4o,但其实走的是v0的通道,所以调用的是v0的模型。这样一来,我们就可以直接在Cursor里完成所有工作啦。
最后,one more thing。完成基础的UI之后,我们可以添加一些动画效果来提升用户体验。比如,可以让Cursor添加Framer Motion。我在Prompt House就用上了,网页版和Mac版都有,整体会流畅许多。
或者,你也可以使用Reactbits之类的网站,把动画的代码复制粘贴到Cursor里,让模型去集成。
就像我在社群里说的,整个前端UI会涉及到这四个部分:React是项目经理和架构师;Radix UI是功能工程师;Tailwind CSS是视觉设计师;Framer Motion是动效设计师。它们共同构成了一个非常现代和强大的前端UI开发工具箱。大家在开发的时候可以组合使用。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- “全局记忆”对于提升AI对话连贯性、实现个人助理功能以及构建全球知识共享工具至关重要。
- OpenMemory项目通过独立存储聊天记录并利用MCP协议,实现了跨客户端和跨对话的AI记忆共享。
- OpenMemory的功能实现依赖于大模型(用于语义理解和检索)、本地化存储(确保隐私、数据可移植性和扩展性)以及MCP协议(实现不同客户端间的内存共享)。
- 作者强调了上下文对于AI创造价值的重要性,并指出“全局记忆”领域为创业者提供了开放和发展的机会。
- 建议将知识库的存储与调用分离,本地存储数据,通过MCP调用,从而获得更自由的模型选择。
- 智能是吸引用户的手段,而数据才是长期留住用户的关键。
Full Content
虽然我经常喷OpenAI,不过他们关于“全局记忆”的判断和观点我是非常认同的。
往小了说,“全局记忆”关系到对话的连贯性。这是今天AI在体验上的一大痛点。
你回想一下,今天大多数的AI客户端,你每开一个新的对话,是不是就好像在跟一个陌生人对话。因为你们过去交流的,它都不知道,你又得重新聊一遍。
这么搞,效率很低,而且工具感很强,你不会觉得这是个有智能的生命。
往大了说,“全局记忆”不只覆盖所有的历史对话,还可以、也应该包括用户的各种资料,甚至包括更广的知识库。
一旦技术成熟,把AI打造成为一个全面的个人助理、一个全球知识共享工具是很有可能的。这个就是OpenAI的野心。
当然啦,这个愿景有点远。不过站在今天,我们还是可以先体验一下的——通过OpenMemory这个项目。
简单来说,OpenMemory的作用就是把聊天记录单独存储。任意一个客户端里聊的东西都可以存进去。然后通过MCP进行调用。任意一个客户端都可以调用任何记录。我给你们演示一下就明白了。
我已经安装OpenMemory,并且通过SSE的连接方式与客户端ChatWise连上了。可以看到,这个MCP一共有四个tools,分别是添加、查询、检索、删除。
我这边准备了一段话,让AI把这些关于Prompt House的内容保存。LLM接到请求后,通过MCP调用add_memories这个tool,成功把那一段话保存起来了。
这时,在同一个对话框,我提出问题:记忆中都有哪些内容?可以看到,LLM很顺利把刚才保存的那条记录调出来了。
接下来,我们打开一个新的对话框,看看AI是否还“记得”刚才的内容。问题很简单:Prompt House主要解决哪两个问题?通过list_memories和search_memories两个tools,LLM把刚才存进去的内容调出,并基于内容完成回答。
同一个客户端的不同对话框,LLM能够自由存储和调用记忆。那么,跨应用呢?我这边打开Cursor,同样的问题:Prompt House主要解决哪两个问题?Claude Sonnet 4也是使用search_memories这个tool,把记忆取回。
你看,无论是跨对话框还是跨客户端,OpenMemory MCP都能实现记忆的存储和调取。
为了实现这些功能,OpenMemory做了三点:
第一,调用大模型。
要把用户的对话存储起来,首先要做的就是“理解”——先理解语义,才能区分哪些是噪音,哪些是重要信息。
不仅如此,在存储的时候,还需要大模型去区分记忆当中的冲突,完成更新。在检索的时候,也需要大模型在语义层面进行检索,而不只是关键词检索。
默认情况下,OpenMemory用的是OpenAI的模型,需要我们输入OpenAI API Key。不过它也支持别家的模型,包括开源大模型。如果你对隐私安全非常非常重视的话,可以连接Ollama。
第二,本地化存储。
为了让用户放心,OpenMemory把所有信息都存在本地。它采用双数据库架构,一个负责存储记忆的向量嵌入,一个存储结构化元数据。
这么设计的好处,一是完全本地化,敏感信息不会上传到云端;二是数据可移植,可以轻松备份和迁移整个数据目录;三是扩展性高,可以切换不同的大模型提供商,或者用本地模型。
第三,MCP。
任何支持MCP协议的客户端都可以通过SSE连上OpenMemory。它的MCP提供四个工具:添加,检索,查看,删除。
有了这四个工具,不同客户端就可以共享同一个内存。上下文就可以在不同客户端之间无缝传递。
我非常看好“全局记忆”这个方向。虽然巨头在做,但是,创业者也有很大机会。
因为,既然是“全局”,那就不能一家独大,就必须开放。在现阶段,有哪家能做到?这不就给了创业者生存、发育的窗口吗?
而且,现在巨头的主要精力还是放在提升模型能力上。所以,几个月前我就在社群里分享了一个思路:
把知识库的存储和调用分开。存储就放在本地,用Cursor创建一个Milvus向量数据库。调用就通过Milvus MCP。当时看大家挺感兴趣的,我还特意出了一期社群专属视频,介绍怎么搭建。
站在用户的角度看,这套思路的好处是,模型的选择会更加自由。谁的模型牛逼,我就对接过去。
站在做产品的角度看,最终留住用户的,不是智能,而是数据。智能只是一个钩子,把用户吸引过来,完成数据的迁移。
而且,智能要发挥作用、要创造价值,一定离不开上下文。这个就是我之前在社群内说的:Context Matters。
回过头来看,过去几个月我分享的那些零散的思路,还有我最近的尝试,全都串起来了。
OK,不多说了。我要继续做产品去了。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。我所有的感悟和认知,都会在社群内分享。那咱们下期见!