知识管理
Key Takeaway
- Web Clipper插件的Interpreter功能能实现AI自动总结、提炼公众号文章,并保存到Obsidian,极大提升信息处理效率。
- 该插件支持桌面端和移动端,可根据预设模板和触发条件自动化剪藏流程。
- 用户可选择不同大模型(如GPT-4o mini、Claude、Gemini、Ollama)进行内容处理,并自定义笔记内容和存储位置。
- Interpreter的配置包括设定大模型、模板(行为、存储位置、触发条件、笔记内容、处理上下文)等。
- 文章强调了Web Clipper在信息搜集和预处理方面的重要性,以及其在减轻阅读压力方面的实用价值。
Full Content
如何用AI自动总结、提炼一篇公众号文章,并且把这些生成的内容和原文一起保存进Obsidian,成为一条笔记?
我强烈推荐大家试试Web Clipper这款插件。它有个功能叫Interpreter,就能实现刚才说的需求。我快速演示一下,非常简单:
在桌面端,如果要处理这篇公众号文章的话,点击浏览器右上角的插件按钮。这时,插件发现这是一篇公众号文章,自动选择了我事先设定好的模板,用我事先设置好的GPT-4o mini做两件事:
第一,总结整篇文章。这样我就知道它大体上是关于什么的。
第二,提炼文章要点。这样我就知道它里边的要点。
然后,我只需要点击保存,刚才这两个部分会放在开头,后边跟上整篇文章的内容,全部打包成为一条笔记,存进Obsidian里边。
这整个过程我只点了两下,其它都是自动完成的。在移动端也是基本类似的操作。
用Safari打开公众号文章之后,点击地址栏左边的按钮,然后在扩展列表里点击插件,这时会出现跟桌面端基本一样的界面。这时再点击右边的Interpret,模型就会自动按照设定好的要求去处理文章。几秒钟之后,再点击保存就搞定了。
因为需求很简单,就是总结和提炼,所以在模型的选择上,我用了速度快、价格便宜的GPT-4o mini。你也用别的,比如Claude或者Gemini。
如果你注册御三家的账号有困难,还可以选择OpenRouter这样的第三方平台,它集成了市面上所有的主流模型。
如果你就是一分钱也不想花也OK,这款插件还支持Ollama。你就在机子上跑个小一点的模型,也很舒服。像Qwen就提供了好多参数的版本,看着挑就好。
哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600多位小伙伴付费加入啦!
回到今天的主题:Web Clipper的Interpreter功能。
这是我做的第三个关于这款插件的视频。大家如果需要基础操作的讲解的话,去翻我之前的。
我之所以这么看中它是因为,信息的搜集和预处理真的非常重要。我在半年多前还特意写过一个脚本,创建了一个Agent Workflow,专门实现刚才演示的那些功能。现在人家一个插件就搞定了,而且还支持移动端。
要配置Interpreter很简单,就两个步骤:
第一步,设定大模型。
点击Add Provider,在弹出界面里选择模型提供方。不同的提供方有不同的Base URL。大家如果之前写过脚本的话,对这个应该非常熟悉。
填完链接和API Key之后,还需要配置一下模型。因为一款模型可能有多个提供方,比如OpenAI和OpenRouter都有GPT系列,所以这边一定要选好。
至于Model ID,一定要按官方的格式填。不知道的话,就去后台看,每一款模型的ID肯定会有。
这两步搞定之后,Interpreter就算设置好了。接下来是模板的设置。我从上往下介绍。
Behavior指的是让插件怎么做,比如是创建一条新笔记,还是在现有的笔记后边做补充。
Note Location和Vault是告诉插件,把笔记存到哪个位置。
Template Triggers就是触发条件。当条件满足的时候,插件会自动选择这个模板,就省去你手动选择的麻烦。我这边设定的条件是公众号文章的网址。
Note Content就是创建的笔记需要包含什么内容。我设定了三个:1、Summary;2、Key Facts;3、全文。大家可以根据自己的需要做调整。
Interpreter Context就是你希望插件处理哪部分的内容。我在这边填Content,意思就是让它处理整篇文章。这个大家也可以根据自己的需求去修改,比如让插件只抓取网页某个部分的内容。
做完这两个部分的设置后,Web Clipper插件就会自动选择模板、自动做总结和提炼。这个对减轻我们平时的阅读压力真的很有帮助。大家看完了一定试试。
OK,以上就是本期内容。想聊AI,就来我们newtype社群。那咱们下期见!
Key Takeaway
- 作者介绍了一种结合Deep Research、Obsidian和Cursor的“AI学习法”,旨在实现深度研究、知识提取和知识图谱构建。
- Deep Research提供高信息密度的输入,Obsidian通过反向链接功能将报告中的知识点系统性地关联起来。
- Cursor的Composer功能能够直接对Obsidian笔记进行知识点提取、解释和内容生成,充当强大的AI辅助工具。
- 这种学习法强调了AI工具组合使用的价值,以实现超越单一工具的效果。
- 建议在与AI工具交互时,将复杂任务分解为清晰的步骤,以提高效率和准确性。
- 长期来看,定期回顾和复习知识点对于巩固学习效果至关重要,可利用Obsidian的随机笔记插件辅助。
Full Content
介绍一个我最新研究出来的“AI学习法”,非常强大。它用到了Deep Research、Obsidian、Cursor,可以针对你的需求做深度研究、知识点提取和解释,并且形成知识图谱。
去年我出过一期社群专属视频,介绍了用Cursor搭配Obsidian使用。其实当时就有这个想法了。现在有Deep Research,这个AI学习法终于可以闭环了。
Deep Research是第一个环节。它可以提供信息密度非常大的输入。但是要完全消化的话,还需要对报告里的知识点做进一步处理。
于是,就需要Obsidian。它的反向链接功能特别好用。在一篇笔记内,如果提到了另一篇笔记,就可以链接过去,最终形成一个知识图谱。这是我把Deep Research的结果放进Obsidian的原因——让作为报告的笔记,和它相关的知识点笔记都关联在一起。这有助于我们系统性地去理解。
那么,问题又来了:知识点该如何提取和解释呢?于是,就需要Cursor。
Cursor的Composer功能可以直接对文档做修改,还可以创建新的文档。用它打开Obsidian存储在本地的笔记,通过对话就能完成一切。
最终,回到Obsidian里,我们不仅能看到一篇深度内容,而且每一个知识点都帮你捋得明明白白。剩下就靠你自己了。
AI都帮到这份上了,还有什么理由学不会?
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!
回到今天的主题:AI学习法。
我在社群内分享过,想借助AI获得Unfair Advantage,其中一个关键,就是知道如何组合使用各种AI工具,获得框架之外的效果。我的AI学习法就是最好的例子。
我给大家做一个实操演示。议题是:DeepSeek-R1有哪些技术创新?
Deep Research我用OpenAI的。目前在这个应用上,他们是全球最贵、全球最强,没有之一。稍等几分钟,一个非常详细的技术解析报告就生成了。
就像前边说的,这个报告信息密度很高。你要是硬啃的话,估计有点难度。于是,我把它复制下来,放到Obsidian里边。为了方便演示,我创建一个新的文件夹,这样一会儿大家看得比较清楚。
另外,我这边只截取了报告的第一部分,并且把Markdown格式全都去干净了。因为我发现,如果文章中有太多Markdown语法的话,会对Cursor有很大影响。很有可能它就没法对文章做修改了。
OK,接下来在Cursor中打开文件。记得在右边栏选择Composer,而不是Chat。
关于Cursor的三种模式——Chat、Composer、Agent,我之前在社群内说过:如果你要自主掌控的话,用Chat模式,可以选择接受哪一部分代码;如果你要全自动化的话,选择Agent。而Composer居中,有一定的自动化能力,正好是我们现在需要的。
接下来,把第一步需求告诉Cursor:帮咱们提取知识点,用Obsidian的反向链接格式标注出来。其中,那些常规名词不需要标注,比如公司和产品的名称。
我演示的文章不长,所以Cursor没多久就搞定了。如果是很长的文章,它会分批操作,需要我们说“继续”了,它才会继续。
第一步完成之后,这篇文章里的知识点都被标注出来了,非常清晰。第二步就是对每一个知识点都创建一个空白的md文档。文件名就是知识点的名称。也就是说,每一个知识点都是一条笔记。这样一来,通过反向链接功能,也就是前边的标注,就能把这些单独的知识点和原文串联在一起。
创建这些空白文档对Composer来说非常容易,很快就搞定了。那么第三步就是填充内容。在刚才创建的每一个空白文档内,补上这个知识点的解释,并且要通俗易懂。
因为这些都是技术名词,不是什么时效性比较强的内容,所以模型用自己的知识储备就可以搞定。
这三步完成之后,咱们就可以从Cursor回到Obsidian了。可以看到,点击文章中的知识点,就会跳转到知识点的笔记,里边有专门的解释。而打开文章的链接图谱,可以看到这篇笔记都关联了哪些笔记。需要的话,你也可以从图谱里任意跳转。
我这边演示的都是基本操作。大家在实际使用过程中可以做细化和调整。比如有哪些知识点你觉得不需要的话,可以手动删除,或者让Cursor帮你搞定。另外,当你吩咐Cursor干活的时候,尽量把步骤拆开,比如我刚才就是分成三次让它操作,并且交代得明明白白。这样才能避免很多奇怪的问题发生。
最后,One more thing:长期来看,你还需要时不时去回顾、去review之前的知识点,才能有比较好的效果。不然那些笔记都堆在那里,你再也记不得。所以,针对这种情况,我推荐安装这个插件:Open random note。就像名字说的那样,你点击一下,它就会随机打开一篇笔记。所以,你闲着无聊的时候就点几下,看几条笔记呗。相信我,真的有效果。
OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!
Key Takeaway
- AI正在改变学习和笔记方式,NotebookLM等工具改变了从文档获取知识的方式。
- Basic Memory项目旨在解决AI长期记忆问题,通过Markdown格式本地保存笔记,并用MCP连接AI,实现自然语言交互。
- 作者的AI笔记系统采用“漏斗结构”,由AI笔记库(Basic Memory创建和管理)和个人管理笔记库(Obsidian)组成。
- AI笔记库由AI自动创建文件夹和标签,作者只负责下达指令和筛选有价值笔记。
- 强调利用AI的智能和效率,将先进生产力引入个人体系,拉开人与人之间的差距。
Full Content
AI正在完全改变我们学习的方式。
比如,能联网搜索的Chatbot,以及更强大的Deep Research,改变了我们从互联网获取知识的方式。
一枝独秀的NotebookLM,改变了我们从文档里获取知识的方式。
现在,我们记录思考,或者说做笔记的方式也将发生改变。我给你们演示一下。
左边是Cursor,右边是Obsidian。我让它帮我记录这条笔记:
开源模型的价值体现在本地化的场景中。但是本地化场景里最重要的是数据和业务流改造,而不是模型。
接到请求后,Cursor调用了一个MCP,完成了笔记的创建。在右边可以看到,它根据笔记的意思,创建了一个文件夹,并且还给笔记打上对应的标签。
那既然它能记录笔记,当然也能完善笔记。比如当我有一些不太成熟的想法时,就可以这么做。
我跟Cursor说,帮我记录并完善这条笔记,关于如何提升AI产品性能。你看,它不仅把我想的东西补充完整了,还根据它自己的知识添加了两点。
我再演示一个很常见的场景。我们平时会遇到一些概念、观点之类的,觉得有价值,但是又不知道它们的确切意思。这个时候就可以让AI帮忙解释,然后记录下来。
比如,“数据中心是新的计算单元”,这个是老黄的观点。我让Cursor解释并且记录。
在这个时候,Cursor先调用了Sequential Thinking这个MCP,进行多步骤推理,确保解释的完整性。当它觉得逻辑完整了,就会开始记录。在右边的Obsidian里,咱们可以看到,它对这一句话做了很详细的拆解。
刚才这些只是非常简单的演示。在实际使用当中,我还加上了搜索的MCP,让AI的信息获取能力更强。而那个帮我记笔记的MCP,叫作Basic Memory,就是我今天要推荐给大家的项目。
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有超过1000位小伙伴付费加入啦!
回到今天的主题:Basic Memory。
这个项目主要是想解决AI长期记忆的问题。我们平时跟AI对话,很多东西聊完就过去了、丢掉了,挺可惜的。于是,Basic Memory的想法就是,用笔记的方式存下来。
第一,所有笔记都以Markdown的格式保存。这种格式,人类看得懂,AI也看得懂,再合适不过了。
第二,所有笔记都保存在本地,不用担心隐私泄露。而且有需要的话,可以用其它工具处理,比如Obsidian、Cursor。
第三,笔记仓库和AI之间,用MCP连接。AI可以自动创建笔记、读取笔记。而且由于是MCP,所以完全支持自然语言交互,你直接发号施令就可以。
我其实没想这么多,完全不care什么长期记忆之类的。我的需求很简单:当我跟AI聊到什么有价值的东西,或者我脑子里冒出什么新想法的时候,我希望AI能充当记录员、小秘书的角色,帮我记录、帮我补充。
要安装Basic Memory很简单,一共就两步,有手就行。
第一步,在终端里运行uv tool install basic-memory这行命令。
我来解释一下。这个uv是一个快速、轻量级的Python包管理工具。大家经常安装开源项目的话,肯定有用过pip,比如pip install、pip list等等命令。uv的好处是,速度更快,功能更全。比如包管理、虚拟环境、工具管理,它全都有,不用再装一堆其它工具了。
类似的还有npm,只不过它针对的是JavaScript,这个我就不多说了。
当我们通过刚才那行uv命令安装完毕之后,就可以进入第二步,把这几行贴到配置文件里。
这个uvx是刚才介绍的uv的一部分,属于子命令。用它可以运行Python包里的命令。而且它有一个好处,是可以自动创建一个临时的虚拟环境,很方便。
我是在Cursor里使用的,所以就在Cursor的MCP配置文件里,把这几行贴进去,然后保存。在MCP服务器列表里就可以看到这个项目了。
Basic Memory用起来很简单,就像最开始演示的那样。我重点谈谈我对它的定位和思路。
现在我会有两个笔记库:一个是原来的Obsidian Vault,完全由我亲手创建、亲手管理。另一个是新增的,由Basic Memory创建和管理的AI笔记库。
对于这个AI笔记库,我是完全放手,绝不干预。比如,里边的文件夹设置,每条笔记的标签,都交给AI去搞。我只做两件事:
第一,下达指令。有什么需要记录的,随时跟AI说。
第二,筛选笔记。AI笔记库承接了日常我跟AI对话中有价值、值得记录的内容。我会定期从里边筛选笔记,或者让AI帮我挑,然后放到由我管理的笔记仓库里。
这其实就是一个漏斗结构。AI笔记库是最上边那一层。我要发挥AI的智能、AI的效率,帮我先过一道。
这些是我目前的思路,供大家参考。今天AI发展非常快,不管是模型还是各种工具,都在飞速迭代。所以咱们一定要多动脑子,想想怎么把这些先进生产力引入到自己的体系中来。
你相信我:人和人之间的差距,就是这么拉开的。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Cursor作为编程软件,天生具备RAG能力,能对本地文件进行索引和处理,使其成为强大的知识库应用。
- Cursor与Obsidian的本地化存储特性完美结合,用户可以通过Cursor直接操作和利用Obsidian的笔记文件。
- 通过创建
cursorrules
文档,用户可以自定义Cursor的工作方式,例如优先检索本地文档、进行联网搜索,并调用特定的MCPs(如Markitdown用于PDF转换,Sequential Thinking用于复杂问题拆解)。 - Cursor的Composer功能和聊天功能可以对笔记进行总结、提炼和扩写,充当Obsidian的“超级AI插件”。
- 这种组合工作流能够兼顾本地知识和网络信息,提供逻辑性强的答案,极大提升知识管理和创作效率。
Full Content
最好用的知识库应用,就是Cursor,没有之一!
你们经常看我发的视频就知道,过去一年多,我用了太多太多知识工具。越用越发现:大道至简,用Cursor就可以了。
你想嘛,RAG能力Cursor本来就有。它是个编程软件。既然要编程,肯定得了解所有代码的情况。所以,当Cursor打开文件夹之后,就会对文件夹内的所有文档进行索引和哈希处理。像Markdown之类的文件,它会进行切块、嵌入向量。
所以,知识库应用该有的RAG能力,Cursor天生就有。不管是代码还是纯文本,它都能一样处理。而且,因为它要写代码,所以肯定要有创建文档、修改文档的能力。这就意味着,它可以帮我们直接写笔记、写文章,对吧?
这还没完。Cursor本身具备搜索能力。你不用特意添加什么工具,它就可以联网搜索,甚至直接打开一个网页。
最后,只要出现了最先进的模型,Cursor一定会第一时间支持。所以这20美元的订阅,我个人认为是非常非常划算的。当然,如果你不想用Cursor的模型,也可以填自己的API Key进去。
那么,我们该怎么用Cursor配合自己的文档进行工作呢?
我的经验是,一定要创建一个cursorrules文档。这个文档放在根目录下,用来告诉Cursor必须遵守哪些项目规则。我给你们演示一下。
你看,我在文档里规定了:
第一,回答之前都必须首先检索文件夹内的所有文档,看看有没有相关的内容可以作为上下文。
第二,光查了本地文档还不够,还得联网搜索,这样信息才齐全。
除了这两个基本要求,我还给Cursor配了两个MCP:
如果遇上PDF文档,就用Markitdown这个MCP做转化。不然Cursor就得写个Python脚本进行处理,就非常麻烦了。
如果问题有点复杂,那就用Sequential Thinking进行拆解、组织内容,这样逻辑性才强。
这两个MCP的用途和触发条件,我都给Cursor写明白了。
最后,我还附上了一个示例,包含每一步怎么处理,清清楚楚。AI绝对可以理解。
有了这一大套底层规则,Cursor就知道怎么跟我配合了。
比如我问它:如何在本地部署知识库?
首先,它花了几秒钟思考这个问题。因为我把Thinking选项打开了。
接着,它把文件夹内的文档检索了一遍。
然后,联网搜索,进一步补充信息。
最后,用Sequential Thinking对所有内容进行梳理,把逻辑整理清楚。
你看,使用这种方法,这样的流程跑下来,知识库里的内容和网上的内容都兼顾了,获得的答案逻辑性也很强。这个就是我说Cursor 最强知识库应用的原因。
我刚才演示的规则是我的需求。大家可以根据自己的需求做修改。其实你让Cursor帮你写也是可以的。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Omnivore停运后,Web Clipper成为替代方案,它是一款浏览器插件,能将网页内容剪藏并同步到Obsidian。
- Web Clipper支持在桌面端和移动端使用,能保存整篇文章或部分内容,并支持自定义模板和自动触发。
- 插件设置包括绑定Obsidian Vault、设置存储位置、行为(新建笔记或添加到现有笔记)和触发条件(根据网址自动选择模板)。
- Web Clipper的亮点在于其自动化能力,能减轻用户阅读压力,提升信息收集效率。
- 文章强调了Web Clipper在构建个人AI知识系统中的重要作用。
Full Content
Omnivore月底就要停止服务了。这款软件我用了很久。它可以把所有我想看的文章都保存进Obsidian里边,完成信息输入,这样我的AI知识系统才完整。
替代Omnivore的方案有很多。在官方Blog里就推荐了几款,比如,不想折腾的话,可以选择收费的Readwise;愿意折腾的话,可以试试self-hosting的方式。
我从来都是属于有现成的就绝不折腾的类型。看了一圈下来,目前我的选择是Web Clipper。
这是一款浏览器插件,Chrome、Edge等等主流浏览器都支持。安装之后,一切设置都在插件端完成,不需要到Obsidian里调整什么。我判断,它就是在本地创建一个md文件,也就是一条新笔记,不走服务器什么的,所以非常简单、直接。
如果你想保存整篇文章,点两下按钮就好。
如果你想保存文章里的一部分内容,点击右上角的画笔按钮,到文章里highlight出想要保存的段落。
如果你想按自己设定好的格式保存内容,点击左上角的模板名称,从下拉列表里选中想用的模板。
更爽的是,Clipper可以根据网址自动判断要用哪个模板。这就省去了每次都要选择模板的麻烦。
哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600位小伙伴付费加入啦!
回到今天的主题:Web Clipper。
其实我在社群里推荐过这款插件。但是有些小伙伴不太懂具体怎么设置。所以就有了本期视频。
安装好插件之后,点击右上角的齿轮按钮,就可以进入设置。在General页面,最重要的是绑定你的Vault,这样插件才知道把文章存到哪个位置。
大家如果不确定自己Vault的名称的话,打开Obsidian,在左下角就可以看到。我这边的名称是Documents,于是把这个名称填过去,敲个回车就算完成了。
在General页面还可以设置快捷键,这个很实用。大家可以用默认的,也可以改成自己顺手的。我机子上的快捷键已经够多了,所以这边就不调整了,用默认的就好。
General页面剩下的选项,以及另外两个页面,我都没动。重点是模板的设置。我把这部分分成三块。
第一,存储位置设置。
之前我们在General页面里设置了Vault,这时候可以在下拉列表里选中。那么,具体要存在哪个文件夹里呢?
比如,在我的笔记结构里,所有的信息输入都放在Input文件夹内,然后分成两个子文件夹:一个放文章,一个放论文。所以,在模板的设置里边,我就把这个文件夹的层级给填进去,完成整个存储位置的设置。
第二,行为设置。
一般来说,当我们保存一篇文章的时候,是希望插件去新建一条笔记的。但是,这个对于保存文章的部分内容可能不适用。因为我们阅读文章的时候,经常是这里想保存一句话,那边想保存一句话。如果对每一条Highlight都创建一条笔记的话,可能会太多太杂了。
所以,针对Highlight的情况,我选择让插件把内容添加到现有笔记里,并且放在下边。这样一来,当我阅读完一篇文章之后,需要保存的内容都汇总到一条笔记里,并且按照先后顺序排好。
第三,触发设置。
前边我说过,Clipper可以根据网址自动判断要用哪个模板。比如,我创建了一个公众号文章的模板,里边没添加任何属性,就是单纯的内容。这个时候,我在Template triggers里把公众号的网址填上,也就是mp.weixin.qq.com——所有的公众号文章的网址都是以这一串为开头的。
这样一来,每当我保存公众号文章的时候,插件就会根据网址做判断,然后自动选择对应的模板。是不是省事多了?
模板的创建,以及我刚才分享的三个设置,是Clipper这款插件的核心用法。大家明白逻辑之后,就可以根据自己的情况去做定制,把Obsidian的效率发挥到极致。
OK,以上就是本期内容。想讨论AI,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Perplexity是目前最好的问答引擎,其回答质量和使用体验优于ChatGPT等产品。
- Perplexity作为知识的起点,强调建立信任(清晰来源标注)、帮助用户提问(扩展搜索关键词、引导提问)和提供一站式服务(Pages功能)。
- Pages功能将搜索与内容构思相结合,能辅助用户生成文章大纲和支撑信息。
- Perplexity通过微调GPT模型、使用其他大模型和自研开源模型,并结合强大的RAG技术,实现了其问答引擎的领先地位。
- Perplexity还提供了Focus功能(特定搜索方向)和Space功能(知识库),进一步扩展了其应用场景。
Full Content
ChatGPT最近推出了搜索功能,不过我还是会继续使用Perplexity。因为作为问答引擎,或者说下一代的搜索引擎,Perplexity依旧拥有最好的回答质量和使用体验。要做好问答引擎,需要大量领域知识,还涉及到工程问题,不是说你有很强的模型就能搞得定的。
至于OpenAI,说实话,我不太看好他们。之前我在社群内还吐槽过,觉得现在的OpenAI就像黄磊一样,样样通、样样松。他们想做的东西太多了:
既想做基础模型研发,又想搞应用,还要做应用商城和生态。推出的一系列功能都是点到为止,没有扎实做透。真要用来严肃生产,还是有点距离的。
所以在过去一年,我一直坚定选择Perplexity和Claude的组合。它俩实实在在有帮到我,帮我赚到钱。本期视频算是Perplexity的教学。如果你还没用过,或者还没订阅的话,一定往下看。
哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。记得点一波关注。只要有一个视频你看进去了,就赚大了。如果想链接我,就来newtype社群。已经有500多位小伙伴付费加入啦!
回到今天的主题:Perplexity。
今天AI应用有两个非常确定的赛道:一是搜索,二是知识库。
搜索就不用我多说了。大模型出现之后,通用搜索和领域搜索都出现了一堆新产品,肯定能跑出独角兽。知识库也非常火。RAG as Service,打造Knowledge Assistant,这个进程一直在加速。
你发现没有:不管是搜索还是知识库,都是关于知识,都是关于知识的发现和流动。所以之前Perplexity在界面上放上一行字:Where knowledge begins,知识的起点。可惜现在改成了“释放你的好奇心”,一下就弱爆了。
当你开始用Perplexity就会有这样的感觉:问答引擎并不等于大模型加搜索,真没那么简单。
第一,作为知识的起点,它需要建立信任,所以它的行为和结果一定是严谨的、是规矩的,就像写论文一样:
所有来源都有清晰标注,并且你可以很方便去追溯;所生成的结果也是逻辑清晰的、简洁的,很好理解。
第二,作为知识的起点,它需要帮助用户提出问题。Perplexity的创始人在采访里说过一个观点,我印象非常深:
他们最大的敌人并不是Google之类的巨头,而是用户不会提问这个无奈的事实。
大部分用户压根就没想明白;即使想明白了,要准确表达又是一个门槛。
所以Perplexity加强了产品上的引导。比如,当用户输入完问题之后,如果不是太具体,他们会给出几个选项,试探一下用户的真实意图。再比如,前段时间他们还加上了自动补齐的功能。
第三,作为知识的起点,它还需要照顾到后续的旅程——不能只是一个起点,还应该尽可能成为一站式的存在。
后续建议提问这个功能很简单,但是很实用。毕竟这么多个问题,总会有一个问到点上的。
前段时间推出的Page功能非常有想法。从一个问题出发,不断提问、不断扩展逻辑,最终形成一个类似文章大纲加上支撑信息的东西。
如果需求不复杂的话,比如你就是想要找个旅游攻略之类的,那么这个成品基本可以拿去直接用。如果是要写篇文章的话,那这个基本就完成了最开始的构思——文章的整体逻辑有了,下边的支撑也有了。
我认为,Page功能就是把我们习惯的边搜索、边构思的过程具像化了、产品化了。再打磨下去,也许有一天真的能实现直接成稿的效果。
所以,当你理解了Perplexity的这些功能之后,再去对比带搜索的大模型产品就会发现,这俩真不是一回事,有点两个物种的感觉。我强烈认为,在搜索的基础上加AI,和在AI的基础上加搜索,是两种产品形态。甚至有一段时间,我退订ChatGPT之后,就是用Perplexity来替代。因为它也有直接生成文字的功能。
很多人可能没怎么注意到Focus这个按钮。点开之后,你可以设置特定的搜索方向。比如,专门搜YouTube或者学术论文等等。其中有一个Writing选项,就是不搜索,基于模型现有的知识直接回答用户问题。要更改模型的话,就到设置里去选择。除了GPT系列,还可以选择Claude系列。最先进的模型这里都有。
通过互联网,我们能搜到的知识大多数公开的、通用的知识。还有很多知识属于领域知识,网上没有的。为了覆盖这种情况,前段时间Perplexity上线了Space功能,也就是知识库。用户可以上传文档,让模型根据文档做回答。
知识库对Perplexity来说是手到擒来的事儿。因为问答引擎本来就需要很强的RAG能力。顺着这个方向,我特别希望他们把文档管理体系给补上,包括分层级的文件夹、标签。让用户逐渐把私人文档存进去,完成数据资产的迁移,这个是入口级产品必须要做的事儿。
Perplexity还有一些不是那么核心的功能,比如发现页面。你可以理解为就是Google、百度都有的新闻推荐页面。这个目前看没啥意思,等看以后会不会有什么创新吧。
OK,以上就是本期内容。大家看完了记得去试试这款目前最好的问答引擎。那咱们下期见!
Key Takeaway
- PDF++插件能帮助用户在Obsidian中高效地阅读PDF并做笔记,支持选中内容自动粘贴、颜色区分和跳转原文链接。
- Smart Connection插件利用AI的反向链接功能,自动分析笔记相关性,并支持可视化展示,解决了手动关联的痛点。
- Copilot插件是Obsidian中功能最强大的AI插件,支持多种大模型、本地知识库功能(RAG)和实用的预设功能(总结、翻译)。
- 这三款插件(PDF++、Smart Connection、Copilot)是Obsidian的必备,能显著提升笔记效率和知识管理能力。
- 文章强调了Obsidian通过插件扩展AI能力,使其成为强大的个人知识管理工具。
Full Content
给大家分享三个Obsidian必备插件,绝对能提升你的生产效率。这三款插件都是我日常一直在用的。那咱们不废话,直接开始。
第一款插件:PDF++。
如果你有一边看PDF一边做笔记的习惯,那这个插件就肯定要安装了。咱们来看效果。
在Obsidian里边,把PDF和笔记左右铺开。在PDF内选中想要保存的部分。这个时候,选中的部分会自动贴到笔记里。用这个方法,咱们就可以边看边记,把想要的内容都摘出来,特别好使。
如果不想自动也OK,把左边的按钮点掉。这时你再选中,就需要在笔记里手动粘贴。想要改颜色的话,可以点上边的色块。选中再粘贴,那么贴过来就是对应的颜色了。通过不同的颜色,就可以区分不同的内容。
除了颜色,这款插件还支持不同的复制格式。大家可以在这个下拉列表里选中需要的格式。值得注意的是,点击里边的链接可以直接打开并跳转到PDF对应的位置,这个超级有用、超级方便。
第二款插件:Smart Connection。
Obsidian有一个非常核心的功能叫反向链接。当你在一条笔记里提到某一个概念正好是另一条笔记的时候,就可以把它们两个关联起来,并且可以跳转。
这样一来,笔记就不是孤岛,而是一个互相关联的整体。当你的笔记积累到上千条的时候就会发现,通过这种串联,你的知识体系就成型了。
但是,这个反向链接有一个很让人头大的地方是:它需要手动操作。所以我经常需要去Review之前的笔记,不断思考,怎么做一点点修改,把两条笔记给关联起来。真的就挺烦的。
其实这个关联的过程,完全可以让AI来完成。Smart Connection就是干这个的。
打开一条笔记,点开右边的Smart Connection就会看到,AI根据相关性帮咱们筛选出了一堆笔记。数值越高,关联性越强。点击笔记就可以跳转过去。
AI之所以能做到相关性分析是因为,它用到了嵌入模型去处理笔记。官方默认的是BGE的模型。如果你要用别的也可以,比如OpenAI的,把自己的API Key填进去就好。嵌入模型的费用很低,大家不必心疼。
在Smart Connection的基础上,我推荐再安装一个插件叫Smart Connection Visualizer。它的作用是可视化,就跟官方的功能一样。离中心笔记越近,相关性越高。
Smart Connection除了分析笔记相关性功能之外,还有大模型对话功能。但说实话,它这功能做得太糟了,我是完全不用。如果有这方面需求,我会用接下来要介绍的第三款插件:
Copilot。
我试过很多AI插件。综合来看,它是最好的。
第一,Copilot支持的模型多。我平时用得比较多的,除了GPT-4o,就是Command R Plus和Qwen2.5。如果是在家里的PC上,我用Ollama跑Qwen2.5;如果是在MacBook上,我就直接用API。
第二,Copilot有本地知识库功能。它可以对Obsidian里所有的笔记创建索引,然后给到模型做参考。它还可以针对单独一篇笔记做问答。比如我就经常把一篇超长的PDF转成MD格式,然后存进Obsidian,在AI的辅助下慢慢消化。
第三,Copilot有很多实用的预设功能。打开面板、输入Copilot就会看到长长的一串。我最常用的是这两个:总结;翻译。
所有我想看的公众号文章,我都会通过Omnivor同步到Obsidian里边,这个之前的视频介绍过。那么同步过来之后,可以全部选中,先让AI总结,特别实用。
至于翻译,中译英或者英译中都可以。
这两个功能我都特地设置了快捷键。打开设置,在快捷键页面搜索Copilot,然后找到想要设置的功能就可以。
刚才介绍的这三个插件——PDF++、Smart Connection和Copilot,是我每天都会用的。对我来说,别的插件可以不装,但这三个插件绝对是必备的。大家有什么推荐也可以在评论区里说一声。
OK,以上就是本期内容。想要交流AI就来我们newtype社群。那咱们下期见!
Key Takeaway
- Obsidian是搭建个人笔记系统的理想工具,结合AI插件可实现“第二大脑”功能。
- Text Generator插件能将Obsidian变为内置ChatGPT,支持总结、头脑风暴、拟大纲、生成标签等,且模板可自定义。
- Copilot插件提供自由问答、基于笔记交互和知识库查询功能,支持多种大模型和联网搜索。
- 这两款AI插件能极大提升Obsidian的效率和功能,使其在笔记记录、内容生成和知识管理方面更强大。
- 文章强调了AI在笔记系统中的辅助作用,以及Obsidian作为本地化笔记软件的优势。
Full Content
现在是搭建个人笔记系统最好的时候。就像我在知识星球newtype里说的那样:
我们的大脑是不适合用来记东西的,而应该去做创造性的工作。现在有了大模型技术、有了AI,笔记系统一下实现质的飞跃——不管你是要查询还是生成,都超级方便。这才是名副其实的Second Brain、第二大脑。
我在上一期视频里分享了我个人的AI笔记系统。这整套系统就像一个漏斗,把我每天接触到的海量外部信息层层过滤、提炼,最终变成最凝练的笔记,内化成我自己的东西。
其中,笔记这个环节,我用的工具是Obsidian。这款软件在国外很有名,但是在国内还非常小众。之后我会结合我的使用经验,多出点视频介绍它。我非常确定,只要你上手之后,肯定就明白我为什么这么大力推荐它了。
本期视频,我先介绍两个Obsidian里的AI插件,很好用,也很重要。
OK,咱们不废话,从第一款插件开始。
Text Generator
Text Generator是我用得最频繁的插件。你可以把它理解为就是Obsidian内置的ChatGPT。比如:
- 一条笔记的内容太多了,我可以让它帮我总结、简化;
- 基于选定的内容,我可以让它帮我头脑风暴,想更多点子;
- 我还可以让它帮我拟文章大纲、起标题,或者根据笔记内容生成标签——省得我每次想半天,总怕漏打了哪个标签。
这些用法就跟你之前用ChatGPT一样。只不过,所有指令、Prompt都被做成模板了,不用你再去输入。如果你有特定需求的话,可以直接去脚本里修改,很容易。
要安装这个插件,来到【设置】里的【社区插件】,然后点击【浏览】,输入插件名称,最后下载和启用。
搞定之后,软件左边栏有一个【Text Generator: Templates Packages Manager】的按钮。打开之后,可以下载现成的模板。这些模板存储的位置就在你的Vault里,多了个textgenerator的文件夹。
在文件夹里,你可以挨个查看每一个模板的意思,都是非常简单的英文。
比如summarize这个。括号内的“context”就是上下文,也就是你选定的笔记内容。这一行的作用是告诉AI,你想对什么内容进行处理。下一行“prompt: summarize the content”就是字面的意思,让AI把上下文里的内容总结了。
在笔记里使用的话,按快捷键打开命令面板,输入“text”,在下拉列表里找到“Generate & Insert”这一项。在里边找到“Summarize”,然后点击执行。
等个几秒钟,我们会看到,AI确实总结完了,但是是英文的。这时我们只需要对模板做一点点修改,在Prompt里边加上“in Chinese”就完事了。
再执行一次,现在输出的结果就是中文的了。
你看,对现成模板的修改就是这么简单。甚至你可以按照自己的需求,用同样的模板格式,去制作你自己的模板——这是我最最喜欢这款插件的地方。
如果你觉得刚才那些操作比较麻烦的话,还可以设置快捷键。这样一键就能打开“Generate & Insert”,然后选择你想使用的模板。
当然,你也可以不用任何模板,直接点击左边的“Generate”按钮,AI会顺着上下文的意思去自由发挥。
Copilot
我要推荐的第二个插件是Copilot。
Text Generator主要是通过模板、针对一条笔记发挥作用。如果我就是想自由问答呢?如果我想在所有笔记的基础上生成一点什么呢?Copilot的作用就在这里。
我一般在这三种情况下使用这款插件。
第一,对话 + 搜索。
我其实很烦,每次想用大模型的时候,都要再另外去开个网页,比如ChatGPT。我觉得但凡你是个生产力工具,就应该集成了大模型的能力。做笔记的时候也是这样。如果还要从Obsidian切到浏览器,那其实是对思路的干扰。
所以,Copilot能在软件右侧提供这样一个对话框就挺好的。我想用哪个大模型就直接切换。如果要联网简单搜点什么,就切到Open Router。它是一个大模型的集成平台。我通过它去使用Perplexity来搜索。
这样一来,我在Obsidian里就能完成该做的事儿,不需要别的软件辅助——这一点对我来说很重要。
第二,基于笔记做交互。
Copilot有一个特别贴心的功能,就是下边这个Send Note按钮。点击之后,就会把当前打开的笔记自动发送给AI,这样就省去了中间的环节,可以直接开始对话。
我每次写好脚本之后,都会把脚本发给AI,让它帮我生成个大纲。我通过大纲就能知道,这个脚本的逻辑是不是清晰的。如果AI总结的大纲有点混乱,那肯定是我的逻辑有问题,否则AI肯定能总结清楚。
Key Takeaway
- 作者通过Omnivore和Readwise两款插件,对Obsidian笔记系统进行了升级,解决了外部信息同步到Obsidian的痛点。
- Omnivore负责将网页文章同步到Obsidian,支持桌面端和移动端。
- Readwise负责保存文章中的Highlights和Twitter推文,并能将同一文章的不同Highlights汇总到一条笔记中。
- Obsidian作为AI知识库的核心,本身具备AI插件和丰富的社区插件,支持云端和本地模型,且同步流畅。
- 通过这两个插件,Obsidian实现了外部信息的高效输入,使其成为更完善的AI知识库形态。
Full Content
我对我的AI知识库做了一点小升级。虽然只是加了两个插件,但是对整套工作流有很大影响。
我之前发了一期视频,介绍我的笔记系统,也就是AI知识库。它分为两大部分:一是外部信息的处理,以AnythingLLM为核心;二是笔记的记录和沉淀,以Obsidian为核心。
说实话,这套东西只能算是beta版,我并不是很满意。因为在实际使用过程中,我得把那些有用的内容从AnythingLLM搬到Obsidian里,还是太麻烦、太不顺畅了。于是,就有了我今天要推荐的两款插件。
一款叫Omnivore,我让它专门负责把网页上的文章原封不动地同步到Obsidian里。
在桌面端,我安装了Chrome插件,所以只要点一下浏览器上的按钮,那些公众号文章之类的,都会保存进我的Omnivore账户,然后再根据我事先的设置,同步到Obsidian的指定文件夹里。
在移动端也可以同步,只是操作不一样:需要安装Omnivore的APP,然后从浏览器分享给APP,就搞定了。
除了保存整篇文章,其实Omnivore也可以保存文章中的某一段话。只不过我设置了Template,即使是保存一段话,它后边也会把全文给带上——这让我感觉挺不清爽的。所以,这个工作就交给另一个插件,叫Readwise。
Readwise用起来很简单:同样是先安装好浏览器插件,然后选中一段文字,然后右键选择“Save Hightlights to Readwise”,最后根据事先设置好的格式,自动同步到Obsidian的指定文件夹里。
这个功能最让我喜欢地方是,它可以汇总同一篇文章的不同Highlights。
一篇稍微长一点的文章,往往会有好几个Highlights是我想保存下来的。很多工具的做法是,一条Highlight对应一条笔记。一篇文章看下来,会有好多条笔记生成,然后我又得特意去把它们集中到一条笔记里边,把多余的删除。
Readwise在这方面就做得很贴心。比如这篇文章我已经保存了几条Highlights,也同步到Obsidian里生成笔记了。之后如果还有新的Highlight,它会在原有的笔记基础上做补充。一篇文章消化完了,对应生成一篇笔记,这个就舒服多了嘛。
除了保存文章片段,我还用Readwise保存Twitter上的推文。它支持两种方式:在回复里@Readwise让它save,或者把推文链接私信发它。我不想敲字,所以选择私信的方式。
Readwise本身是个聚合器,跟市面上主流的工具都打通了。它甚至可以把Kindle里的笔记同步过来,特别强悍,大家可以试试。
所以,有了这两个插件,我Obsidian里的文件夹做了调整,新增了Input,里边放三个子文件夹:
Articles专门放Omnivore那边过来的文章,我在插件的设置里的Folder选项把文件夹目录填进去了。
Highlights和Tweets放Readwise的内容。除了在插件的设置里填上文件夹名称,我还在网站的后台更改了Category Folder的名字,把Articles改成了Highlights,不然就跟Omnivore那边重合了。
这两个插件都支持你自定义内容的格式。我参考了网上大佬的template,然后自己做了修改。这些格式我都发在newtype社群了,知识星球或者Patreon的小伙伴可以直接拿去用。
做完这一切的设置、调整之后,Obsidian就成为我的AI知识库的核心了:
第一,它本来就有AI插件,比如之前介绍过的Copilot、Text Generator,云端和本地的模型都支持,做一些对话、内容生成、知识库查询完全没问题。
第二,它本来就是一款非常好用的笔记软件,社区插件超级丰富。在PC、Mac、iPhone之间通过iCloud同步也很顺畅。
通过刚才介绍的两款插件,把外部信息同步这一环补上之后,这才是我比较满意的AI知识库的形态。
OK,以上就是本期内容。大家有什么想聊的,来newtype找我,我都在。那咱们下期见!
Key Takeaway
- Google的NotebookLM是一款强大的AI学习产品,通过“Conversational Learning”理念,辅助用户高效学习和消化资料。
- NotebookLM新增中文支持和笔记本指南功能,后者包含摘要、建议问题和多种生成选项(如简报文档、常见问答)。
- 该工具能帮助用户快速建立对文档的框架性理解,并通过AI引导深入细节,提升学习效率。
- NotebookLM通过结合AI生成和对话,提供立体化的学习体验,超越传统阅读方式。
- 文章强调了NotebookLM在辅助阅读、理解和知识沉淀方面的巨大价值。
Full Content
我还是得再次推荐谷歌的AI神器:NotebookLM。如果你想严肃学习,比如好好看完一本书,或者消化一批研究报告,那这个工具肯定能帮到你。
几个月前我发视频介绍过NotebookLM,这是我最期待的谷歌产品,也是现在为数不多的、真正有用的AI工具。它提出的新理念我非常赞同,叫做Conversational Learning——在AI的辅助下,通过对话的方式完成学习。
咱们来打个赌:半年,最多一年,就会有国内厂商把这款产品的逻辑抄去。
最近NotebookLM有一个大更新:
一是终于支持中文了。
之前它虽然也懂中文,但就是不用中文回复你,也是绝了…现在支持了,不过还是得到设置里更改一下:
进入Google账号的个人信息页面,在网页版的常规偏好设置里,把首选语言改成中文就OK了。
二是新出了笔记本指南功能。
当你把文档导入,Genimi模型会先对文档做预处理。快的话几秒,慢的话十几秒,笔记本指南就完成了。它包含三个部分:
第一,摘要,告诉你文档的核心内容。比如我导入的这本书是Evolution in Four Dimensions(进化的四个维度)。通过摘要我就知道,原来传统的、我们以前在学校里学的达尔文的那套理论——基因决定生物进化并不完全对。除了基因,表观遗传、行为和符号也会影响到生物进化。
第二,建议问题。大模型会根据文档内容自动生成第一批建议问题。我们不需要敲字,只要点击就可以提问。而且,每一个问题提完之后,它还会持续更新建议问题。所以我们一路点下去,就会有一些初步的理解。
不过这还不够,因为这么零散的一问一答是没法形成一个整体性的框架的。于是就有了第三部分——生成。
NotebookLM事先设置了五个生成选项。AI自动生成之后,会以笔记的形式输出。我觉得比较有用的是这两个生成:
第一,简报文档。这部分内容会把文档的核心逻辑和主要观点都列出来。
比如,传统的基因决定论受到挑战,因为我们发现,基因要发挥作用,需要依赖系统,也会受到环境影响,所以没有之前想的那么万能。除了基因,生物进化还有更多维度,包括表观遗传系统、符号遗传系统。
看完简报文档,你就知道进化的四个维度这本书的主张是什么,以及作者是怎么一步一步推导出这个主张的。逻辑比观点更重要,这是我觉得这个生成有用的原因。
第二,常见问答。一本书看完了,你问得出问题来,才说明吃透了。
比如,我们对基因的传统认知是什么?为什么它不再完全适用?表观遗传系统都包含哪些类型?文化遗传是怎么影响到生物进化的?这些都是书里的关键问题,AI先帮你问了,并且给了你答案。
有笔记本指南功能之后,这款产品才算完整了。
先通过AI生成功能,建立起对整个文档的框架性理解。然后通过对话,在框架之下做补充。
这就是AI的辅助作用。之前你得老老实实地从前到后把书看完,才有一个框架性的理解。现在AI先帮你读完了,直接把框架给到你,然后再带着你去过里边的细节。显然这是一种更高效率的学习方法。
这就是为什么我要再出一期视频来再次介绍、再次推荐这款产品的原因。把Why讲清楚了,大家才能更舒服地去用这些AI工具——这是我能带给大家的价值。
OK,以上就是本期内容。有什么问题想问我的,来newtype社群,我都在。那咱们下期见!