Obsidian

AI剪藏公众号文章,全自动总结、提炼、存进Obsidian

Key Takeaway

  • Web Clipper插件的Interpreter功能能实现AI自动总结、提炼公众号文章,并保存到Obsidian,极大提升信息处理效率。
  • 该插件支持桌面端和移动端,可根据预设模板和触发条件自动化剪藏流程。
  • 用户可选择不同大模型(如GPT-4o mini、Claude、Gemini、Ollama)进行内容处理,并自定义笔记内容和存储位置。
  • Interpreter的配置包括设定大模型、模板(行为、存储位置、触发条件、笔记内容、处理上下文)等。
  • 文章强调了Web Clipper在信息搜集和预处理方面的重要性,以及其在减轻阅读压力方面的实用价值。

Full Content

如何用AI自动总结、提炼一篇公众号文章,并且把这些生成的内容和原文一起保存进Obsidian,成为一条笔记?

我强烈推荐大家试试Web Clipper这款插件。它有个功能叫Interpreter,就能实现刚才说的需求。我快速演示一下,非常简单:

在桌面端,如果要处理这篇公众号文章的话,点击浏览器右上角的插件按钮。这时,插件发现这是一篇公众号文章,自动选择了我事先设定好的模板,用我事先设置好的GPT-4o mini做两件事:

第一,总结整篇文章。这样我就知道它大体上是关于什么的。

第二,提炼文章要点。这样我就知道它里边的要点。

然后,我只需要点击保存,刚才这两个部分会放在开头,后边跟上整篇文章的内容,全部打包成为一条笔记,存进Obsidian里边。

这整个过程我只点了两下,其它都是自动完成的。在移动端也是基本类似的操作。

用Safari打开公众号文章之后,点击地址栏左边的按钮,然后在扩展列表里点击插件,这时会出现跟桌面端基本一样的界面。这时再点击右边的Interpret,模型就会自动按照设定好的要求去处理文章。几秒钟之后,再点击保存就搞定了。

因为需求很简单,就是总结和提炼,所以在模型的选择上,我用了速度快、价格便宜的GPT-4o mini。你也用别的,比如Claude或者Gemini。

如果你注册御三家的账号有困难,还可以选择OpenRouter这样的第三方平台,它集成了市面上所有的主流模型。

如果你就是一分钱也不想花也OK,这款插件还支持Ollama。你就在机子上跑个小一点的模型,也很舒服。像Qwen就提供了好多参数的版本,看着挑就好。

哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600多位小伙伴付费加入啦!

回到今天的主题:Web Clipper的Interpreter功能。

这是我做的第三个关于这款插件的视频。大家如果需要基础操作的讲解的话,去翻我之前的。

我之所以这么看中它是因为,信息的搜集和预处理真的非常重要。我在半年多前还特意写过一个脚本,创建了一个Agent Workflow,专门实现刚才演示的那些功能。现在人家一个插件就搞定了,而且还支持移动端。

要配置Interpreter很简单,就两个步骤:

第一步,设定大模型。

点击Add Provider,在弹出界面里选择模型提供方。不同的提供方有不同的Base URL。大家如果之前写过脚本的话,对这个应该非常熟悉。

填完链接和API Key之后,还需要配置一下模型。因为一款模型可能有多个提供方,比如OpenAI和OpenRouter都有GPT系列,所以这边一定要选好。

至于Model ID,一定要按官方的格式填。不知道的话,就去后台看,每一款模型的ID肯定会有。

这两步搞定之后,Interpreter就算设置好了。接下来是模板的设置。我从上往下介绍。

Behavior指的是让插件怎么做,比如是创建一条新笔记,还是在现有的笔记后边做补充。

Note Location和Vault是告诉插件,把笔记存到哪个位置。

Template Triggers就是触发条件。当条件满足的时候,插件会自动选择这个模板,就省去你手动选择的麻烦。我这边设定的条件是公众号文章的网址。

Note Content就是创建的笔记需要包含什么内容。我设定了三个:1、Summary;2、Key Facts;3、全文。大家可以根据自己的需要做调整。

Interpreter Context就是你希望插件处理哪部分的内容。我在这边填Content,意思就是让它处理整篇文章。这个大家也可以根据自己的需求去修改,比如让插件只抓取网页某个部分的内容。

做完这两个部分的设置后,Web Clipper插件就会自动选择模板、自动做总结和提炼。这个对减轻我们平时的阅读压力真的很有帮助。大家看完了一定试试。

OK,以上就是本期内容。想聊AI,就来我们newtype社群。那咱们下期见!

AI学习法:Deep Research + Obsidian + Cursor

Key Takeaway

  • 作者介绍了一种结合Deep Research、Obsidian和Cursor的“AI学习法”,旨在实现深度研究、知识提取和知识图谱构建。
  • Deep Research提供高信息密度的输入,Obsidian通过反向链接功能将报告中的知识点系统性地关联起来。
  • Cursor的Composer功能能够直接对Obsidian笔记进行知识点提取、解释和内容生成,充当强大的AI辅助工具。
  • 这种学习法强调了AI工具组合使用的价值,以实现超越单一工具的效果。
  • 建议在与AI工具交互时,将复杂任务分解为清晰的步骤,以提高效率和准确性。
  • 长期来看,定期回顾和复习知识点对于巩固学习效果至关重要,可利用Obsidian的随机笔记插件辅助。

Full Content

介绍一个我最新研究出来的“AI学习法”,非常强大。它用到了Deep Research、Obsidian、Cursor,可以针对你的需求做深度研究、知识点提取和解释,并且形成知识图谱。

去年我出过一期社群专属视频,介绍了用Cursor搭配Obsidian使用。其实当时就有这个想法了。现在有Deep Research,这个AI学习法终于可以闭环了。

Deep Research是第一个环节。它可以提供信息密度非常大的输入。但是要完全消化的话,还需要对报告里的知识点做进一步处理。

于是,就需要Obsidian。它的反向链接功能特别好用。在一篇笔记内,如果提到了另一篇笔记,就可以链接过去,最终形成一个知识图谱。这是我把Deep Research的结果放进Obsidian的原因——让作为报告的笔记,和它相关的知识点笔记都关联在一起。这有助于我们系统性地去理解。

那么,问题又来了:知识点该如何提取和解释呢?于是,就需要Cursor。

Cursor的Composer功能可以直接对文档做修改,还可以创建新的文档。用它打开Obsidian存储在本地的笔记,通过对话就能完成一切。

最终,回到Obsidian里,我们不仅能看到一篇深度内容,而且每一个知识点都帮你捋得明明白白。剩下就靠你自己了。

AI都帮到这份上了,还有什么理由学不会?

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!

回到今天的主题:AI学习法。

我在社群内分享过,想借助AI获得Unfair Advantage,其中一个关键,就是知道如何组合使用各种AI工具,获得框架之外的效果。我的AI学习法就是最好的例子。

我给大家做一个实操演示。议题是:DeepSeek-R1有哪些技术创新?

Deep Research我用OpenAI的。目前在这个应用上,他们是全球最贵、全球最强,没有之一。稍等几分钟,一个非常详细的技术解析报告就生成了。

就像前边说的,这个报告信息密度很高。你要是硬啃的话,估计有点难度。于是,我把它复制下来,放到Obsidian里边。为了方便演示,我创建一个新的文件夹,这样一会儿大家看得比较清楚。

另外,我这边只截取了报告的第一部分,并且把Markdown格式全都去干净了。因为我发现,如果文章中有太多Markdown语法的话,会对Cursor有很大影响。很有可能它就没法对文章做修改了。

OK,接下来在Cursor中打开文件。记得在右边栏选择Composer,而不是Chat。

关于Cursor的三种模式——Chat、Composer、Agent,我之前在社群内说过:如果你要自主掌控的话,用Chat模式,可以选择接受哪一部分代码;如果你要全自动化的话,选择Agent。而Composer居中,有一定的自动化能力,正好是我们现在需要的。

接下来,把第一步需求告诉Cursor:帮咱们提取知识点,用Obsidian的反向链接格式标注出来。其中,那些常规名词不需要标注,比如公司和产品的名称。

我演示的文章不长,所以Cursor没多久就搞定了。如果是很长的文章,它会分批操作,需要我们说“继续”了,它才会继续。

第一步完成之后,这篇文章里的知识点都被标注出来了,非常清晰。第二步就是对每一个知识点都创建一个空白的md文档。文件名就是知识点的名称。也就是说,每一个知识点都是一条笔记。这样一来,通过反向链接功能,也就是前边的标注,就能把这些单独的知识点和原文串联在一起。

创建这些空白文档对Composer来说非常容易,很快就搞定了。那么第三步就是填充内容。在刚才创建的每一个空白文档内,补上这个知识点的解释,并且要通俗易懂。

因为这些都是技术名词,不是什么时效性比较强的内容,所以模型用自己的知识储备就可以搞定。

这三步完成之后,咱们就可以从Cursor回到Obsidian了。可以看到,点击文章中的知识点,就会跳转到知识点的笔记,里边有专门的解释。而打开文章的链接图谱,可以看到这篇笔记都关联了哪些笔记。需要的话,你也可以从图谱里任意跳转。

我这边演示的都是基本操作。大家在实际使用过程中可以做细化和调整。比如有哪些知识点你觉得不需要的话,可以手动删除,或者让Cursor帮你搞定。另外,当你吩咐Cursor干活的时候,尽量把步骤拆开,比如我刚才就是分成三次让它操作,并且交代得明明白白。这样才能避免很多奇怪的问题发生。

最后,One more thing:长期来看,你还需要时不时去回顾、去review之前的知识点,才能有比较好的效果。不然那些笔记都堆在那里,你再也记不得。所以,针对这种情况,我推荐安装这个插件:Open random note。就像名字说的那样,你点击一下,它就会随机打开一篇笔记。所以,你闲着无聊的时候就点几下,看几条笔记呗。相信我,真的有效果。

OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!

AI笔记法

Key Takeaway

  • AI正在改变学习和笔记方式,NotebookLM等工具改变了从文档获取知识的方式。
  • Basic Memory项目旨在解决AI长期记忆问题,通过Markdown格式本地保存笔记,并用MCP连接AI,实现自然语言交互。
  • 作者的AI笔记系统采用“漏斗结构”,由AI笔记库(Basic Memory创建和管理)和个人管理笔记库(Obsidian)组成。
  • AI笔记库由AI自动创建文件夹和标签,作者只负责下达指令和筛选有价值笔记。
  • 强调利用AI的智能和效率,将先进生产力引入个人体系,拉开人与人之间的差距。

Full Content

AI正在完全改变我们学习的方式。

比如,能联网搜索的Chatbot,以及更强大的Deep Research,改变了我们从互联网获取知识的方式。

一枝独秀的NotebookLM,改变了我们从文档里获取知识的方式。

现在,我们记录思考,或者说做笔记的方式也将发生改变。我给你们演示一下。

左边是Cursor,右边是Obsidian。我让它帮我记录这条笔记:

开源模型的价值体现在本地化的场景中。但是本地化场景里最重要的是数据和业务流改造,而不是模型。

接到请求后,Cursor调用了一个MCP,完成了笔记的创建。在右边可以看到,它根据笔记的意思,创建了一个文件夹,并且还给笔记打上对应的标签。

那既然它能记录笔记,当然也能完善笔记。比如当我有一些不太成熟的想法时,就可以这么做。

我跟Cursor说,帮我记录并完善这条笔记,关于如何提升AI产品性能。你看,它不仅把我想的东西补充完整了,还根据它自己的知识添加了两点。

我再演示一个很常见的场景。我们平时会遇到一些概念、观点之类的,觉得有价值,但是又不知道它们的确切意思。这个时候就可以让AI帮忙解释,然后记录下来。

比如,“数据中心是新的计算单元”,这个是老黄的观点。我让Cursor解释并且记录。

在这个时候,Cursor先调用了Sequential Thinking这个MCP,进行多步骤推理,确保解释的完整性。当它觉得逻辑完整了,就会开始记录。在右边的Obsidian里,咱们可以看到,它对这一句话做了很详细的拆解。

刚才这些只是非常简单的演示。在实际使用当中,我还加上了搜索的MCP,让AI的信息获取能力更强。而那个帮我记笔记的MCP,叫作Basic Memory,就是我今天要推荐给大家的项目。

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有超过1000位小伙伴付费加入啦!

回到今天的主题:Basic Memory。

这个项目主要是想解决AI长期记忆的问题。我们平时跟AI对话,很多东西聊完就过去了、丢掉了,挺可惜的。于是,Basic Memory的想法就是,用笔记的方式存下来。

第一,所有笔记都以Markdown的格式保存。这种格式,人类看得懂,AI也看得懂,再合适不过了。

第二,所有笔记都保存在本地,不用担心隐私泄露。而且有需要的话,可以用其它工具处理,比如Obsidian、Cursor。

第三,笔记仓库和AI之间,用MCP连接。AI可以自动创建笔记、读取笔记。而且由于是MCP,所以完全支持自然语言交互,你直接发号施令就可以。

我其实没想这么多,完全不care什么长期记忆之类的。我的需求很简单:当我跟AI聊到什么有价值的东西,或者我脑子里冒出什么新想法的时候,我希望AI能充当记录员、小秘书的角色,帮我记录、帮我补充。

要安装Basic Memory很简单,一共就两步,有手就行。

第一步,在终端里运行uv tool install basic-memory这行命令。

我来解释一下。这个uv是一个快速、轻量级的Python包管理工具。大家经常安装开源项目的话,肯定有用过pip,比如pip install、pip list等等命令。uv的好处是,速度更快,功能更全。比如包管理、虚拟环境、工具管理,它全都有,不用再装一堆其它工具了。

类似的还有npm,只不过它针对的是JavaScript,这个我就不多说了。

当我们通过刚才那行uv命令安装完毕之后,就可以进入第二步,把这几行贴到配置文件里。

这个uvx是刚才介绍的uv的一部分,属于子命令。用它可以运行Python包里的命令。而且它有一个好处,是可以自动创建一个临时的虚拟环境,很方便。

我是在Cursor里使用的,所以就在Cursor的MCP配置文件里,把这几行贴进去,然后保存。在MCP服务器列表里就可以看到这个项目了。

Basic Memory用起来很简单,就像最开始演示的那样。我重点谈谈我对它的定位和思路。

现在我会有两个笔记库:一个是原来的Obsidian Vault,完全由我亲手创建、亲手管理。另一个是新增的,由Basic Memory创建和管理的AI笔记库。

对于这个AI笔记库,我是完全放手,绝不干预。比如,里边的文件夹设置,每条笔记的标签,都交给AI去搞。我只做两件事:

第一,下达指令。有什么需要记录的,随时跟AI说。

第二,筛选笔记。AI笔记库承接了日常我跟AI对话中有价值、值得记录的内容。我会定期从里边筛选笔记,或者让AI帮我挑,然后放到由我管理的笔记仓库里。

这其实就是一个漏斗结构。AI笔记库是最上边那一层。我要发挥AI的智能、AI的效率,帮我先过一道。

这些是我目前的思路,供大家参考。今天AI发展非常快,不管是模型还是各种工具,都在飞速迭代。所以咱们一定要多动脑子,想想怎么把这些先进生产力引入到自己的体系中来。

你相信我:人和人之间的差距,就是这么拉开的。

OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

ChatGPT的正确打开方式

Key Takeaway

  • ChatGPT在iPhone上效率不高,因为它没有与系统和其它APP打通,无法自动化运行。
  • 利用iPhone的快捷指令功能,可以实现ChatGPT的自动化操作,如自动总结公众号文章、语音问答和内容创作。
  • 快捷指令的核心逻辑是:输入(网页文字、语音转文本)-> 处理(ChatGPT总结、回答)-> 输出(Markdown格式笔记到备忘录)。
  • 这种自动化工作流能显著提升ChatGPT的使用效率和便捷性,弥补其作为聊天机器人的局限。
  • 文章通过“总结GPT”、“问答GPT”和“灵感GPT”三个快捷指令示例,展示了ChatGPT在个人生产力中的应用。

Full Content

ChatGPT在iPhone上还不够好用。主要原因是,它没有跟系统和其它APP打通,没法自动化运行,效率不高。所以,它还只是一个聊天机器人——每次都得打开APP才能用,然后还得输入一堆东西——难怪用户使用频率不高,这也太麻烦了。

在现阶段,要让iPhone上的ChatGPT有用起来,你肯定要用到快捷指令这个功能。我先演示一下我是怎么用的,再详细介绍怎么设置。

我相信大家都很头大这样的事儿:每天要看的公众号文章根本看不过来。怎么搞?

首先,用Google Chrome打开这篇文章。

然后,点击地址栏右边的分享按钮,选择最顶端的快捷指令(我设置的名称叫“总结GPT”)。

最后,稍等一会儿,ChatGPT就会按照我事先设置好的要求,用GPT-4o这个最新的模型,总结文章的核心内容,提炼文章的Key Points,并且在备忘录的指定文件夹里创建一条新笔记,把这些内容都用Markdown格式存进去。

这么做的好处是:

第一,我就不用在APP之间手动切换、各种输入——现在用快捷指令自动化完成,这显然方便多了。

第二,虽然ChatGPT里会有聊天记录,但我还是让它存到备忘录里了。因为备忘录是系统自带的,在iOS和macOS之间同步非常快。这样一来,我回到Mac上就可以直接编辑了。而且它是Markdown格式,我还可以把它贴到写作软件或者笔记软件里进一步处理。

刚才这个是“总结GPT”。按照同样的思路,我还设置了一个“问答GPT”,也是用语音输入。

比如我问:机械键盘的主流轴都有哪些区别?比如红轴、青轴等等。

接到一段语音输入后,这个快捷指令会先把语音转化成文字、给到ChatGPT。

然后,根据我事先的设置,ChatGPT回答完问题之后,同样会用Markdown格式,把内容存到备忘录里,方便我之后查找和编辑。

这两个快捷指令是我平时用得最频繁的。除此之外,还有“灵感GPT”:

当我有任何内容方面的想法时,就像刚才“问答GPT”那样,用语音的方式全部给到GPT。它会把我的那些零散的表述有逻辑地整理一遍,变成一个内容框架,然后往里边做补充和扩展。

你如果看过我上一期视频就会发现,这其实是在用快捷指令去搭建一套简易的Agent Workflow。在新版iOS、新版Siri出来之前,咱们先用这种方式实现AI自动化。

接下来,我拿刚才那个“灵感GPT”给大家详细讲解一下。这三个快捷指令,我已经把iCloud链接分享到知识星球和Patreon里了,newtype社群的小伙伴可以直接拿去用。包括这期视频,我也会在社群内首发,算是给大家的“超前点映”。

就像上期视频里说的那样,一般来说,一套Agent Workflow的起点是用户输入。在“灵感GPT”里,咱们是用语音转成文字,所以要用到“听写文本”这个功能。在“听写文本”的设置中,大家记得点开下拉列表,选择语言,否则会报错。

有了初始输入之后,第二步,咱们要添加一个“文本”,在里边写一段Prompt,把对AI的要求交代清楚,并且把第一步的内容贴在后边,就像我这样。这一整个文本,就是接下来要给到AI去处理的信息。

第三步,添加“询问ChatGPT”,把“文本”加进去。在下拉列表中,把“开始新聊天”勾选上,然后就可以选择要用哪个模型了。

第四步,再添加一个“文本”,把GPT的回答都放进去。你可以在文本的开头添加一些描述,比如我写的是“From GPT”,这样我就知道,这条笔记是AI生成的。

第五步,添加“备忘录”,选择事先创建好的文件夹,让GPT在里边新建一条备忘录,把上一步的文本都存进去,这样就大功告成了。

另外两个快捷指令也是同样的思路。其实这整套Workflow的核心就三个步骤,很好理解:

第一,初始信息从哪来(输入)?是网页里的文字,是语音转文本,还是一张照片?这个需要设置清楚。

第二,你要GPT帮你干啥(处理)?我一般会添加一个“文本”,把固定的指令和每次的需求都放进去。然后把整个文本给到GPT。

第三,你要什么样的结果(输出)?就像我刚才演示的,以备忘录加Markdown做输出。

输入、处理、输出,把这套逻辑想清楚了,你就知道怎么用快捷指令和ChatGPT去搭建一套简易的工作流了。

OK,以上就是本期内容。大家有什么想聊的,可以来newtype找我。那咱们下期见!

Cursor就是最强知识库应用,没有之一

Key Takeaway

  • Cursor作为编程软件,天生具备RAG能力,能对本地文件进行索引和处理,使其成为强大的知识库应用。
  • Cursor与Obsidian的本地化存储特性完美结合,用户可以通过Cursor直接操作和利用Obsidian的笔记文件。
  • 通过创建cursorrules文档,用户可以自定义Cursor的工作方式,例如优先检索本地文档、进行联网搜索,并调用特定的MCPs(如Markitdown用于PDF转换,Sequential Thinking用于复杂问题拆解)。
  • Cursor的Composer功能和聊天功能可以对笔记进行总结、提炼和扩写,充当Obsidian的“超级AI插件”。
  • 这种组合工作流能够兼顾本地知识和网络信息,提供逻辑性强的答案,极大提升知识管理和创作效率。

Full Content

最好用的知识库应用,就是Cursor,没有之一!

你们经常看我发的视频就知道,过去一年多,我用了太多太多知识工具。越用越发现:大道至简,用Cursor就可以了。

你想嘛,RAG能力Cursor本来就有。它是个编程软件。既然要编程,肯定得了解所有代码的情况。所以,当Cursor打开文件夹之后,就会对文件夹内的所有文档进行索引和哈希处理。像Markdown之类的文件,它会进行切块、嵌入向量。

所以,知识库应用该有的RAG能力,Cursor天生就有。不管是代码还是纯文本,它都能一样处理。而且,因为它要写代码,所以肯定要有创建文档、修改文档的能力。这就意味着,它可以帮我们直接写笔记、写文章,对吧?

这还没完。Cursor本身具备搜索能力。你不用特意添加什么工具,它就可以联网搜索,甚至直接打开一个网页。

最后,只要出现了最先进的模型,Cursor一定会第一时间支持。所以这20美元的订阅,我个人认为是非常非常划算的。当然,如果你不想用Cursor的模型,也可以填自己的API Key进去。

那么,我们该怎么用Cursor配合自己的文档进行工作呢?

我的经验是,一定要创建一个cursorrules文档。这个文档放在根目录下,用来告诉Cursor必须遵守哪些项目规则。我给你们演示一下。

你看,我在文档里规定了:

第一,回答之前都必须首先检索文件夹内的所有文档,看看有没有相关的内容可以作为上下文。

第二,光查了本地文档还不够,还得联网搜索,这样信息才齐全。

除了这两个基本要求,我还给Cursor配了两个MCP:

如果遇上PDF文档,就用Markitdown这个MCP做转化。不然Cursor就得写个Python脚本进行处理,就非常麻烦了。

如果问题有点复杂,那就用Sequential Thinking进行拆解、组织内容,这样逻辑性才强。

这两个MCP的用途和触发条件,我都给Cursor写明白了。

最后,我还附上了一个示例,包含每一步怎么处理,清清楚楚。AI绝对可以理解。

有了这一大套底层规则,Cursor就知道怎么跟我配合了。

比如我问它:如何在本地部署知识库?

首先,它花了几秒钟思考这个问题。因为我把Thinking选项打开了。

接着,它把文件夹内的文档检索了一遍。

然后,联网搜索,进一步补充信息。

最后,用Sequential Thinking对所有内容进行梳理,把逻辑整理清楚。

你看,使用这种方法,这样的流程跑下来,知识库里的内容和网上的内容都兼顾了,获得的答案逻辑性也很强。这个就是我说Cursor 最强知识库应用的原因。

我刚才演示的规则是我的需求。大家可以根据自己的需求做修改。其实你让Cursor帮你写也是可以的。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

Omnivore停运,用啥替代?

Key Takeaway

  • Omnivore停运后,Web Clipper成为替代方案,它是一款浏览器插件,能将网页内容剪藏并同步到Obsidian。
  • Web Clipper支持在桌面端和移动端使用,能保存整篇文章或部分内容,并支持自定义模板和自动触发。
  • 插件设置包括绑定Obsidian Vault、设置存储位置、行为(新建笔记或添加到现有笔记)和触发条件(根据网址自动选择模板)。
  • Web Clipper的亮点在于其自动化能力,能减轻用户阅读压力,提升信息收集效率。
  • 文章强调了Web Clipper在构建个人AI知识系统中的重要作用。

Full Content

Omnivore月底就要停止服务了。这款软件我用了很久。它可以把所有我想看的文章都保存进Obsidian里边,完成信息输入,这样我的AI知识系统才完整。

替代Omnivore的方案有很多。在官方Blog里就推荐了几款,比如,不想折腾的话,可以选择收费的Readwise;愿意折腾的话,可以试试self-hosting的方式。

我从来都是属于有现成的就绝不折腾的类型。看了一圈下来,目前我的选择是Web Clipper。

这是一款浏览器插件,Chrome、Edge等等主流浏览器都支持。安装之后,一切设置都在插件端完成,不需要到Obsidian里调整什么。我判断,它就是在本地创建一个md文件,也就是一条新笔记,不走服务器什么的,所以非常简单、直接。

如果你想保存整篇文章,点两下按钮就好。

如果你想保存文章里的一部分内容,点击右上角的画笔按钮,到文章里highlight出想要保存的段落。

如果你想按自己设定好的格式保存内容,点击左上角的模板名称,从下拉列表里选中想用的模板。

更爽的是,Clipper可以根据网址自动判断要用哪个模板。这就省去了每次都要选择模板的麻烦。

哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600位小伙伴付费加入啦!

回到今天的主题:Web Clipper。

其实我在社群里推荐过这款插件。但是有些小伙伴不太懂具体怎么设置。所以就有了本期视频。

安装好插件之后,点击右上角的齿轮按钮,就可以进入设置。在General页面,最重要的是绑定你的Vault,这样插件才知道把文章存到哪个位置。

大家如果不确定自己Vault的名称的话,打开Obsidian,在左下角就可以看到。我这边的名称是Documents,于是把这个名称填过去,敲个回车就算完成了。

在General页面还可以设置快捷键,这个很实用。大家可以用默认的,也可以改成自己顺手的。我机子上的快捷键已经够多了,所以这边就不调整了,用默认的就好。

General页面剩下的选项,以及另外两个页面,我都没动。重点是模板的设置。我把这部分分成三块。

第一,存储位置设置。

之前我们在General页面里设置了Vault,这时候可以在下拉列表里选中。那么,具体要存在哪个文件夹里呢?

比如,在我的笔记结构里,所有的信息输入都放在Input文件夹内,然后分成两个子文件夹:一个放文章,一个放论文。所以,在模板的设置里边,我就把这个文件夹的层级给填进去,完成整个存储位置的设置。

第二,行为设置。

一般来说,当我们保存一篇文章的时候,是希望插件去新建一条笔记的。但是,这个对于保存文章的部分内容可能不适用。因为我们阅读文章的时候,经常是这里想保存一句话,那边想保存一句话。如果对每一条Highlight都创建一条笔记的话,可能会太多太杂了。

所以,针对Highlight的情况,我选择让插件把内容添加到现有笔记里,并且放在下边。这样一来,当我阅读完一篇文章之后,需要保存的内容都汇总到一条笔记里,并且按照先后顺序排好。

第三,触发设置。

前边我说过,Clipper可以根据网址自动判断要用哪个模板。比如,我创建了一个公众号文章的模板,里边没添加任何属性,就是单纯的内容。这个时候,我在Template triggers里把公众号的网址填上,也就是mp.weixin.qq.com——所有的公众号文章的网址都是以这一串为开头的。

这样一来,每当我保存公众号文章的时候,插件就会根据网址做判断,然后自动选择对应的模板。是不是省事多了?

模板的创建,以及我刚才分享的三个设置,是Clipper这款插件的核心用法。大家明白逻辑之后,就可以根据自己的情况去做定制,把Obsidian的效率发挥到极致。

OK,以上就是本期内容。想讨论AI,就来我们newtype社群。那咱们下期见!

三款Obsidian必备插件,我每天都在用

Key Takeaway

  • PDF++插件能帮助用户在Obsidian中高效地阅读PDF并做笔记,支持选中内容自动粘贴、颜色区分和跳转原文链接。
  • Smart Connection插件利用AI的反向链接功能,自动分析笔记相关性,并支持可视化展示,解决了手动关联的痛点。
  • Copilot插件是Obsidian中功能最强大的AI插件,支持多种大模型、本地知识库功能(RAG)和实用的预设功能(总结、翻译)。
  • 这三款插件(PDF++、Smart Connection、Copilot)是Obsidian的必备,能显著提升笔记效率和知识管理能力。
  • 文章强调了Obsidian通过插件扩展AI能力,使其成为强大的个人知识管理工具。

Full Content

给大家分享三个Obsidian必备插件,绝对能提升你的生产效率。这三款插件都是我日常一直在用的。那咱们不废话,直接开始。

第一款插件:PDF++。

如果你有一边看PDF一边做笔记的习惯,那这个插件就肯定要安装了。咱们来看效果。

在Obsidian里边,把PDF和笔记左右铺开。在PDF内选中想要保存的部分。这个时候,选中的部分会自动贴到笔记里。用这个方法,咱们就可以边看边记,把想要的内容都摘出来,特别好使。

如果不想自动也OK,把左边的按钮点掉。这时你再选中,就需要在笔记里手动粘贴。想要改颜色的话,可以点上边的色块。选中再粘贴,那么贴过来就是对应的颜色了。通过不同的颜色,就可以区分不同的内容。

除了颜色,这款插件还支持不同的复制格式。大家可以在这个下拉列表里选中需要的格式。值得注意的是,点击里边的链接可以直接打开并跳转到PDF对应的位置,这个超级有用、超级方便。

第二款插件:Smart Connection。

Obsidian有一个非常核心的功能叫反向链接。当你在一条笔记里提到某一个概念正好是另一条笔记的时候,就可以把它们两个关联起来,并且可以跳转。

这样一来,笔记就不是孤岛,而是一个互相关联的整体。当你的笔记积累到上千条的时候就会发现,通过这种串联,你的知识体系就成型了。

但是,这个反向链接有一个很让人头大的地方是:它需要手动操作。所以我经常需要去Review之前的笔记,不断思考,怎么做一点点修改,把两条笔记给关联起来。真的就挺烦的。

其实这个关联的过程,完全可以让AI来完成。Smart Connection就是干这个的。

打开一条笔记,点开右边的Smart Connection就会看到,AI根据相关性帮咱们筛选出了一堆笔记。数值越高,关联性越强。点击笔记就可以跳转过去。

AI之所以能做到相关性分析是因为,它用到了嵌入模型去处理笔记。官方默认的是BGE的模型。如果你要用别的也可以,比如OpenAI的,把自己的API Key填进去就好。嵌入模型的费用很低,大家不必心疼。

在Smart Connection的基础上,我推荐再安装一个插件叫Smart Connection Visualizer。它的作用是可视化,就跟官方的功能一样。离中心笔记越近,相关性越高。

Smart Connection除了分析笔记相关性功能之外,还有大模型对话功能。但说实话,它这功能做得太糟了,我是完全不用。如果有这方面需求,我会用接下来要介绍的第三款插件:

Copilot。

我试过很多AI插件。综合来看,它是最好的。

第一,Copilot支持的模型多。我平时用得比较多的,除了GPT-4o,就是Command R Plus和Qwen2.5。如果是在家里的PC上,我用Ollama跑Qwen2.5;如果是在MacBook上,我就直接用API。

第二,Copilot有本地知识库功能。它可以对Obsidian里所有的笔记创建索引,然后给到模型做参考。它还可以针对单独一篇笔记做问答。比如我就经常把一篇超长的PDF转成MD格式,然后存进Obsidian,在AI的辅助下慢慢消化。

第三,Copilot有很多实用的预设功能。打开面板、输入Copilot就会看到长长的一串。我最常用的是这两个:总结;翻译。

所有我想看的公众号文章,我都会通过Omnivor同步到Obsidian里边,这个之前的视频介绍过。那么同步过来之后,可以全部选中,先让AI总结,特别实用。

至于翻译,中译英或者英译中都可以。

这两个功能我都特地设置了快捷键。打开设置,在快捷键页面搜索Copilot,然后找到想要设置的功能就可以。

刚才介绍的这三个插件——PDF++、Smart Connection和Copilot,是我每天都会用的。对我来说,别的插件可以不装,但这三个插件绝对是必备的。大家有什么推荐也可以在评论区里说一声。

OK,以上就是本期内容。想要交流AI就来我们newtype社群。那咱们下期见!

两款AI插件,让Obsidian更强大

Key Takeaway

  • Obsidian是搭建个人笔记系统的理想工具,结合AI插件可实现“第二大脑”功能。
  • Text Generator插件能将Obsidian变为内置ChatGPT,支持总结、头脑风暴、拟大纲、生成标签等,且模板可自定义。
  • Copilot插件提供自由问答、基于笔记交互和知识库查询功能,支持多种大模型和联网搜索。
  • 这两款AI插件能极大提升Obsidian的效率和功能,使其在笔记记录、内容生成和知识管理方面更强大。
  • 文章强调了AI在笔记系统中的辅助作用,以及Obsidian作为本地化笔记软件的优势。

Full Content

现在是搭建个人笔记系统最好的时候。就像我在知识星球newtype里说的那样:

我们的大脑是不适合用来记东西的,而应该去做创造性的工作。现在有了大模型技术、有了AI,笔记系统一下实现质的飞跃——不管你是要查询还是生成,都超级方便。这才是名副其实的Second Brain、第二大脑。

我在上一期视频里分享了我个人的AI笔记系统。这整套系统就像一个漏斗,把我每天接触到的海量外部信息层层过滤、提炼,最终变成最凝练的笔记,内化成我自己的东西。

其中,笔记这个环节,我用的工具是Obsidian。这款软件在国外很有名,但是在国内还非常小众。之后我会结合我的使用经验,多出点视频介绍它。我非常确定,只要你上手之后,肯定就明白我为什么这么大力推荐它了。

本期视频,我先介绍两个Obsidian里的AI插件,很好用,也很重要。

OK,咱们不废话,从第一款插件开始。

Text Generator

Text Generator是我用得最频繁的插件。你可以把它理解为就是Obsidian内置的ChatGPT。比如:

  • 一条笔记的内容太多了,我可以让它帮我总结、简化;
  • 基于选定的内容,我可以让它帮我头脑风暴,想更多点子;
  • 我还可以让它帮我拟文章大纲、起标题,或者根据笔记内容生成标签——省得我每次想半天,总怕漏打了哪个标签。

这些用法就跟你之前用ChatGPT一样。只不过,所有指令、Prompt都被做成模板了,不用你再去输入。如果你有特定需求的话,可以直接去脚本里修改,很容易。

要安装这个插件,来到【设置】里的【社区插件】,然后点击【浏览】,输入插件名称,最后下载和启用。

搞定之后,软件左边栏有一个【Text Generator: Templates Packages Manager】的按钮。打开之后,可以下载现成的模板。这些模板存储的位置就在你的Vault里,多了个textgenerator的文件夹。

在文件夹里,你可以挨个查看每一个模板的意思,都是非常简单的英文。

比如summarize这个。括号内的“context”就是上下文,也就是你选定的笔记内容。这一行的作用是告诉AI,你想对什么内容进行处理。下一行“prompt: summarize the content”就是字面的意思,让AI把上下文里的内容总结了。

在笔记里使用的话,按快捷键打开命令面板,输入“text”,在下拉列表里找到“Generate & Insert”这一项。在里边找到“Summarize”,然后点击执行。

等个几秒钟,我们会看到,AI确实总结完了,但是是英文的。这时我们只需要对模板做一点点修改,在Prompt里边加上“in Chinese”就完事了。

再执行一次,现在输出的结果就是中文的了。

你看,对现成模板的修改就是这么简单。甚至你可以按照自己的需求,用同样的模板格式,去制作你自己的模板——这是我最最喜欢这款插件的地方。

如果你觉得刚才那些操作比较麻烦的话,还可以设置快捷键。这样一键就能打开“Generate & Insert”,然后选择你想使用的模板。

当然,你也可以不用任何模板,直接点击左边的“Generate”按钮,AI会顺着上下文的意思去自由发挥。

Copilot

我要推荐的第二个插件是Copilot。

Text Generator主要是通过模板、针对一条笔记发挥作用。如果我就是想自由问答呢?如果我想在所有笔记的基础上生成一点什么呢?Copilot的作用就在这里。

我一般在这三种情况下使用这款插件。

第一,对话 + 搜索。

我其实很烦,每次想用大模型的时候,都要再另外去开个网页,比如ChatGPT。我觉得但凡你是个生产力工具,就应该集成了大模型的能力。做笔记的时候也是这样。如果还要从Obsidian切到浏览器,那其实是对思路的干扰。

所以,Copilot能在软件右侧提供这样一个对话框就挺好的。我想用哪个大模型就直接切换。如果要联网简单搜点什么,就切到Open Router。它是一个大模型的集成平台。我通过它去使用Perplexity来搜索。

这样一来,我在Obsidian里就能完成该做的事儿,不需要别的软件辅助——这一点对我来说很重要。

第二,基于笔记做交互。

Copilot有一个特别贴心的功能,就是下边这个Send Note按钮。点击之后,就会把当前打开的笔记自动发送给AI,这样就省去了中间的环节,可以直接开始对话。

我每次写好脚本之后,都会把脚本发给AI,让它帮我生成个大纲。我通过大纲就能知道,这个脚本的逻辑是不是清晰的。如果AI总结的大纲有点混乱,那肯定是我的逻辑有问题,否则AI肯定能总结清楚。

围绕Obsidian,打造AI知识库

Key Takeaway

  • 作者通过Omnivore和Readwise两款插件,对Obsidian笔记系统进行了升级,解决了外部信息同步到Obsidian的痛点。
  • Omnivore负责将网页文章同步到Obsidian,支持桌面端和移动端。
  • Readwise负责保存文章中的Highlights和Twitter推文,并能将同一文章的不同Highlights汇总到一条笔记中。
  • Obsidian作为AI知识库的核心,本身具备AI插件和丰富的社区插件,支持云端和本地模型,且同步流畅。
  • 通过这两个插件,Obsidian实现了外部信息的高效输入,使其成为更完善的AI知识库形态。

Full Content

我对我的AI知识库做了一点小升级。虽然只是加了两个插件,但是对整套工作流有很大影响。

我之前发了一期视频,介绍我的笔记系统,也就是AI知识库。它分为两大部分:一是外部信息的处理,以AnythingLLM为核心;二是笔记的记录和沉淀,以Obsidian为核心。

说实话,这套东西只能算是beta版,我并不是很满意。因为在实际使用过程中,我得把那些有用的内容从AnythingLLM搬到Obsidian里,还是太麻烦、太不顺畅了。于是,就有了我今天要推荐的两款插件。

一款叫Omnivore,我让它专门负责把网页上的文章原封不动地同步到Obsidian里。

在桌面端,我安装了Chrome插件,所以只要点一下浏览器上的按钮,那些公众号文章之类的,都会保存进我的Omnivore账户,然后再根据我事先的设置,同步到Obsidian的指定文件夹里。

在移动端也可以同步,只是操作不一样:需要安装Omnivore的APP,然后从浏览器分享给APP,就搞定了。

除了保存整篇文章,其实Omnivore也可以保存文章中的某一段话。只不过我设置了Template,即使是保存一段话,它后边也会把全文给带上——这让我感觉挺不清爽的。所以,这个工作就交给另一个插件,叫Readwise。

Readwise用起来很简单:同样是先安装好浏览器插件,然后选中一段文字,然后右键选择“Save Hightlights to Readwise”,最后根据事先设置好的格式,自动同步到Obsidian的指定文件夹里。

这个功能最让我喜欢地方是,它可以汇总同一篇文章的不同Highlights。

一篇稍微长一点的文章,往往会有好几个Highlights是我想保存下来的。很多工具的做法是,一条Highlight对应一条笔记。一篇文章看下来,会有好多条笔记生成,然后我又得特意去把它们集中到一条笔记里边,把多余的删除。

Readwise在这方面就做得很贴心。比如这篇文章我已经保存了几条Highlights,也同步到Obsidian里生成笔记了。之后如果还有新的Highlight,它会在原有的笔记基础上做补充。一篇文章消化完了,对应生成一篇笔记,这个就舒服多了嘛。

除了保存文章片段,我还用Readwise保存Twitter上的推文。它支持两种方式:在回复里@Readwise让它save,或者把推文链接私信发它。我不想敲字,所以选择私信的方式。

Readwise本身是个聚合器,跟市面上主流的工具都打通了。它甚至可以把Kindle里的笔记同步过来,特别强悍,大家可以试试。

所以,有了这两个插件,我Obsidian里的文件夹做了调整,新增了Input,里边放三个子文件夹:

Articles专门放Omnivore那边过来的文章,我在插件的设置里的Folder选项把文件夹目录填进去了。

Highlights和Tweets放Readwise的内容。除了在插件的设置里填上文件夹名称,我还在网站的后台更改了Category Folder的名字,把Articles改成了Highlights,不然就跟Omnivore那边重合了。

这两个插件都支持你自定义内容的格式。我参考了网上大佬的template,然后自己做了修改。这些格式我都发在newtype社群了,知识星球或者Patreon的小伙伴可以直接拿去用。

做完这一切的设置、调整之后,Obsidian就成为我的AI知识库的核心了:

第一,它本来就有AI插件,比如之前介绍过的Copilot、Text Generator,云端和本地的模型都支持,做一些对话、内容生成、知识库查询完全没问题。

第二,它本来就是一款非常好用的笔记软件,社区插件超级丰富。在PC、Mac、iPhone之间通过iCloud同步也很顺畅。

通过刚才介绍的两款插件,把外部信息同步这一环补上之后,这才是我比较满意的AI知识库的形态。

OK,以上就是本期内容。大家有什么想聊的,来newtype找我,我都在。那咱们下期见!

如何搭建一套Agent系统

Key Takeaway

  • Agent是AI智能体的核心,用于自动化执行任务,其搭建关键在于明确需求和工作流设计。
  • Multi-Agent System通过角色分工协作,解决复杂任务,例如Researcher、Editor和Note Taker的组合。
  • Agent除了大模型作为“大脑”,还需要工具作为“手脚”,如搜索工具(Tavily)和笔记工具(Obsidian)。
  • 搭建Agent系统需要Python脚本,即使编程能力不高,也能通过现有脚本进行修改和拼装。
  • RAG和Agent是AI原生应用的关键技术,理解并实践它们能提升AI使用效率。

Full Content

我对自己的笔记系统做了一点小升级。

之前的系统只是“离线版”,只能根据已有的内容去生成新内容。

升级之后的系统就是“联机版”:增加了AI搜索、报告生成的功能。而且,全都搞定之后,还会自动生成一条笔记,省得我还要手动贴进Obsidian。

这些功能的背后,是Agent / AI智能体的能力。

我在上期视频介绍了Agent的基本概念。有些小伙伴说,想看看具体的案例。所以这期也算是一个简单的演示,让你知道Agent是怎么搭建的、怎么工作的。

现在虽然有不少工具,比如difi.ai之类的,能让你点几下鼠标就完成搭建。但是,要完全实现自己的需求,完全按照自己的心意来,还是得靠代码。

不过也不用担心,一是网上有很多现成的Python脚本,你稍微改一改、拼装一下,完全可以用;二是它也不要求你有多高的编程能力,看得懂就行。甚至你把它当成英语四级的阅读理解都OK。像我这种小学生水平都能上手,你肯定没问题。

OK,咱们进入正题。

Agent是用来干活儿的。所以,一切的出发点肯定是需求,越明确越好。

我的需求很简单,来自于我日常经常遇到的情况:

当我在Obsidian里整理笔记或者写东西的时候,经常会需要去查点资料。搜到好多个网页之后,我需要创建一条新笔记,把里边有用的内容提取出来,规整一下,变成一个比较有逻辑的东西,存在笔记里边,方便下一步处理。

这些繁琐的、技术含量不高的工作,我希望能交给几个Agent合作完成。

就像我在知识星球newtype里说的,搭建一套Multi-Agent System,最重要的是,你想让它怎么做。

所以,为了满足这个需求,需要三个角色,分别完成三个任务:

Researcher:负责上网查资料,然后把找到的内容汇总成一份报告。 Editor:它的内容能力强、文笔好,负责根据Researcher提供的报告,撰写一篇笔记。 Note Taker:它的任务很简单,就是在Obsidian里创建一条新笔记,然后把Editor写好的东西贴进去。

这是一个非常简单的分工,很好理解。难点在于给Agent配什么工具。

你可以把大模型看作是一个单独的大脑,就像科幻电影里的那种。它只有“思考”能力,没有行为能力。所以,Agent除了装上大模型这个大脑之外,还得拿上工具——咱不能人家不能空手去干,对吧?

根据分工内容,Agent需要用到两个工具:

搜索工具:有了这个,Agent才能联网搜索。 笔记工具:Agent需要知道,笔记放在哪个位置,什么格式,以及新笔记的标题该叫啥。

关于搜索工具,今天已经有很多现成的了。比如Google、DuckduckGO,都可以直接用。我这边选择的是Tavily。他们提供的搜索API,专门为大模型和RAG优化过,效果挺好的。直接加两行代码就可以用。

关于笔记工具,这边需要动点脑子,因为Obsidian并没有提供一个接口让其它程序能够接入去创建笔记。不过,解法还是有的:

Obsidian的所有笔记都是md格式的。那么,咱们就直接在笔记所在的文件夹创建一个md格式的文件。也就是说,通过在外部创建笔记的方式,绕开在软件内创建的这一步。

所以,基于这个解法,就有了CustomTools这几行代码,指明了笔记文件夹的位置,以及文件名的规则——按照笔记创建的时间来命名。

当把这些组合在一起之后,就形成了这样一份脚本,包含这几部分:

基础设置,包括API Key是什么,具体的模型用哪个,以及工具的设置。 刚才介绍过的那三个Agent,它们分别负责干什么,以及允许它们使用什么工具。 分几个子任务完成,以及每一个子任务都由哪些Agent参与。

当把这些拼装完毕之后,运行脚本,等个十几秒,任务就完成了。

以后每次使用,我只需要把这一行修改了,也就是告诉Agent,让它帮我搜什么。

其实我也可以用Gradio添加一个可视化的界面。不过我自己使用就不讲究那么多了。

按照同样的逻辑,我们可以对这个脚本做一些修改。比如,输入一个公众号文章的链接,让Agent读取它,然后把内容全扒下来,做提炼和总结,最后存进笔记里,都可以。

我这边介绍的都是最简单的Workflow,主要是想让大家有个概念。真要是搞大一些的项目,整套系统设计会麻烦得多,会用到更多的工具和大模型,Agent之间以及Agent和用户之间的协作也会复杂起来。

OK以上就是本期内容。希望通过这期和上一期视频,大家能对Agent有一个基本的认知。还是那句话:RAG和Agent是用好AI的关键。大家有什么问题就来知识星球newtype找我。咱们下期见!