DeepResearch

AI学习法:Deep Research + Obsidian + Cursor

Key Takeaway

  • 作者介绍了一种结合Deep Research、Obsidian和Cursor的“AI学习法”,旨在实现深度研究、知识提取和知识图谱构建。
  • Deep Research提供高信息密度的输入,Obsidian通过反向链接功能将报告中的知识点系统性地关联起来。
  • Cursor的Composer功能能够直接对Obsidian笔记进行知识点提取、解释和内容生成,充当强大的AI辅助工具。
  • 这种学习法强调了AI工具组合使用的价值,以实现超越单一工具的效果。
  • 建议在与AI工具交互时,将复杂任务分解为清晰的步骤,以提高效率和准确性。
  • 长期来看,定期回顾和复习知识点对于巩固学习效果至关重要,可利用Obsidian的随机笔记插件辅助。

Full Content

介绍一个我最新研究出来的“AI学习法”,非常强大。它用到了Deep Research、Obsidian、Cursor,可以针对你的需求做深度研究、知识点提取和解释,并且形成知识图谱。

去年我出过一期社群专属视频,介绍了用Cursor搭配Obsidian使用。其实当时就有这个想法了。现在有Deep Research,这个AI学习法终于可以闭环了。

Deep Research是第一个环节。它可以提供信息密度非常大的输入。但是要完全消化的话,还需要对报告里的知识点做进一步处理。

于是,就需要Obsidian。它的反向链接功能特别好用。在一篇笔记内,如果提到了另一篇笔记,就可以链接过去,最终形成一个知识图谱。这是我把Deep Research的结果放进Obsidian的原因——让作为报告的笔记,和它相关的知识点笔记都关联在一起。这有助于我们系统性地去理解。

那么,问题又来了:知识点该如何提取和解释呢?于是,就需要Cursor。

Cursor的Composer功能可以直接对文档做修改,还可以创建新的文档。用它打开Obsidian存储在本地的笔记,通过对话就能完成一切。

最终,回到Obsidian里,我们不仅能看到一篇深度内容,而且每一个知识点都帮你捋得明明白白。剩下就靠你自己了。

AI都帮到这份上了,还有什么理由学不会?

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!

回到今天的主题:AI学习法。

我在社群内分享过,想借助AI获得Unfair Advantage,其中一个关键,就是知道如何组合使用各种AI工具,获得框架之外的效果。我的AI学习法就是最好的例子。

我给大家做一个实操演示。议题是:DeepSeek-R1有哪些技术创新?

Deep Research我用OpenAI的。目前在这个应用上,他们是全球最贵、全球最强,没有之一。稍等几分钟,一个非常详细的技术解析报告就生成了。

就像前边说的,这个报告信息密度很高。你要是硬啃的话,估计有点难度。于是,我把它复制下来,放到Obsidian里边。为了方便演示,我创建一个新的文件夹,这样一会儿大家看得比较清楚。

另外,我这边只截取了报告的第一部分,并且把Markdown格式全都去干净了。因为我发现,如果文章中有太多Markdown语法的话,会对Cursor有很大影响。很有可能它就没法对文章做修改了。

OK,接下来在Cursor中打开文件。记得在右边栏选择Composer,而不是Chat。

关于Cursor的三种模式——Chat、Composer、Agent,我之前在社群内说过:如果你要自主掌控的话,用Chat模式,可以选择接受哪一部分代码;如果你要全自动化的话,选择Agent。而Composer居中,有一定的自动化能力,正好是我们现在需要的。

接下来,把第一步需求告诉Cursor:帮咱们提取知识点,用Obsidian的反向链接格式标注出来。其中,那些常规名词不需要标注,比如公司和产品的名称。

我演示的文章不长,所以Cursor没多久就搞定了。如果是很长的文章,它会分批操作,需要我们说“继续”了,它才会继续。

第一步完成之后,这篇文章里的知识点都被标注出来了,非常清晰。第二步就是对每一个知识点都创建一个空白的md文档。文件名就是知识点的名称。也就是说,每一个知识点都是一条笔记。这样一来,通过反向链接功能,也就是前边的标注,就能把这些单独的知识点和原文串联在一起。

创建这些空白文档对Composer来说非常容易,很快就搞定了。那么第三步就是填充内容。在刚才创建的每一个空白文档内,补上这个知识点的解释,并且要通俗易懂。

因为这些都是技术名词,不是什么时效性比较强的内容,所以模型用自己的知识储备就可以搞定。

这三步完成之后,咱们就可以从Cursor回到Obsidian了。可以看到,点击文章中的知识点,就会跳转到知识点的笔记,里边有专门的解释。而打开文章的链接图谱,可以看到这篇笔记都关联了哪些笔记。需要的话,你也可以从图谱里任意跳转。

我这边演示的都是基本操作。大家在实际使用过程中可以做细化和调整。比如有哪些知识点你觉得不需要的话,可以手动删除,或者让Cursor帮你搞定。另外,当你吩咐Cursor干活的时候,尽量把步骤拆开,比如我刚才就是分成三次让它操作,并且交代得明明白白。这样才能避免很多奇怪的问题发生。

最后,One more thing:长期来看,你还需要时不时去回顾、去review之前的知识点,才能有比较好的效果。不然那些笔记都堆在那里,你再也记不得。所以,针对这种情况,我推荐安装这个插件:Open random note。就像名字说的那样,你点击一下,它就会随机打开一篇笔记。所以,你闲着无聊的时候就点几下,看几条笔记呗。相信我,真的有效果。

OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!

AI杀手级应用:Deep Research

Key Takeaway

  • Deep Research是AI的杀手级应用,能显著提升职场效率,未来将快速普及。
  • Deep Research的核心是AI Search的尽头,即AI Research,通过掌握更多信息和控制更多工具实现。
  • OpenAI的Deep Research效果最佳,但成本高昂;Google Gemini的Deep Research性能不错且性价比高;Perplexity的Deep Search量大但效果一般。
  • Deep Research通过模型协作和多轮分析,能快速完成深度研究,生成思维导图和深度挖掘。
  • 文章强调Deep Research普及后,将对职场产生巨大影响,并建议用户尽早学习和使用。

Full Content

Deep Research绝对是AI的杀手级应用。用过都说好。可惜用过的人太少,因为成本真的很高,比如OpenAI要收200美金一个月才让你用。所以,这个东西暂时还没有火出圈。如果你是职场新人,或者很想往上爬,趁着这段时间,赶紧用、赶紧学,不开玩笑。

这么说吧,但凡脑子正常的老板用过Deep Research之后,绝对会想把公司里的初级牛马全部干掉。手段不那么狠一些的,也会强制要求全员使用。然后,用不明白的都给我滚蛋。

我演示一下你们就明白了。需求很简单:帮我分析英特尔与台积电合资的可能性,以及美股投资机会。这个是最近美股投资的热门议题,我已经买入了。

接到需求后,ChatGPT会主动做一轮沟通,把需求里的细节明确一下,然后再正式开工。整个过程一般在10分钟左右,它会去查找几十个网页,然后细细地拆解。这个时候大家可以切到别的网页或者刷刷手机。

我对o1 Pro这个生成结果挺满意的,几分钟时间就完成了初步研究。试想一下,一个月1500块招个实习生帮你搜集资料,能做到这个份上,你已经可以偷笑了!

接下来,可以让这个GPT实习生根据前边的内容生成一个思维导图,这样你会有一个全局性的认识。然后,针对其中某些具体的点,再让GPT去做深度挖掘。这我就不演示了。

所以,身为打工人的各位自己掂量一下:当Deep Research全面普及之后,你们在职场当中该如何自处?

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有800多位小伙伴付费加入啦!

回到今天的主题:Deep Research。

目前市面上提供Deep Research产品的厂商主要有三家:OpenAI、Google,以及Perplexity。接下来一定会有更多厂商加入进来。为什么?记住我这句话:

AI Search的尽头,是AI Research。

那么,不管是Search还是Research,又都是为了什么?我前两天在社群里发了这么一段话,我认为:

AI会沿着两条线发展:掌握更多信息,控制更多工具。

其中,搜索、深度研究都是第一条线的关键节点。这是为什么各家都很重视的原因。

动作最快的OpenAI已经把这个产品开放给Pro用户好一段时间了。这一档的月费是200美金,每个月可以用100次的Deep Research。Plus和免费版的用户也别着急,Sam说了,将会向Plus版用户提供每个月10次的额度,免费版用户则是2次。

实话实说,OpenAI的Deep Research是目前效果最好的产品。它不是简单地搜一堆网页,把内容拿回来分析。而是用了大量的模型协作。所以,消耗的Token比别家多太多。它产出的报告,信息密度也是别家的好几倍。不信的话,你去部署那些开源的、所谓的替代品试试就知道了。

但是,很可惜,我不会继续订阅。不是产品的问题,而是降智的问题。

很多人都遇到了降智,特别恶心。这个问题并不是无解。比如,你可以再花一点点钱去搞个静态IP伪装一下。可以是可以,只是那种被歧视的感觉让我非常不爽。我给的美元就不是美元吗?

而且,抛开这些情绪,我判断,这类型产品在三个月内一定会快速普及,成为20美金的标配。

这么考虑下来,我还是会把Gemini当做主力。性能不错,稳定,不恶心人。

我每个月20美金订阅Gemini Advanced,这其中就包括Deep Research的使用权限。这个使用也是有限额的,不过Google没明说,估计是根据用户的使用量来动态调整,满了会提示。

我给大家看一下Gemini这边的效果。跟ChatGPT一样,接到需求后,不会马上开始,而是先做一轮分析,拟定一个方案,跟用户确认好了之后才开工。接着,在几分钟内,它会查找几十甚至上百个网页,直到掌握足够的信息。最后,按照报告的格式进行输出。

没记错的话,Gemini的Deep Research是在1.5的阶段推出的,所以现在是1.5 Pro这个模型,还没更新到2.0。所以,在结果上肯定不如OpenAI那边。但是我相信,等用上Gemini 2.0模型之后,两边的效果一定会齐平。而且,Gemini大概率会提供更多的额度。一是因为搜索上的积累,二是因为Google有TPU。对OpenAI来说,成本才是他们最大的障碍。

OK,ChatGPT和Gemini都聊完了,咱们最后来看看Perplexity。他们是最狠的,给Pro用户每天500次额度,免费用户每天5次。虽然便宜,但是效果也比较一般。

不客气地说:这不是Deep Research,而是Deep Search。

反正我日常都高频使用Perplexity。现在多了一个量大管饱的Deep Search,不用白不用。

详细版!我是如何用AI学习的

Key Takeaway

  • AI将成为衡量个人能力的标准,其应用能力将成为基本技能。
  • 作者分享了一套AI学习法:首先对议题进行拆解,梳理个人初步判断和问题,为AI提供上下文。
  • 利用Gemini的Deep Research功能生成多份详细报告,并通过Google文档导入NotebookLM进行AI辅助学习。
  • 使用Cursor结合Gemini 2.5 Pro对所有资料进行整合、精简和脱水,最终输出为Markdown格式的文件。
  • 强调Markdown格式是AI时代最适合的文件格式,便于人机理解和长期保存。
  • 整个AI学习流程显著提高了学习效率,拉开了人与人之间的差距。

Full Content

很快,AI就会成为人的标准。

AI生成的东西,是平庸的标准。如果你做出来的东西,比如写了一篇稿子或者弄了个报告,比不过AI的话,那么你在这个方面就是平庸的。

对AI的应用,是基本技能的标准。不会在工作中把AI用起来,就好比今天不会用Office软件。不会在学习中把AI用起来,就好比今天不会用搜索引擎查资料。

我一直觉得,今天的AI已经足够强了。按照这个趋势再更新一代,也就是GPT-5、Claude 4、Gemini 3.0的那一代,AI就会达到一个成熟的状态。AGI能不能实现不重要,因为现有的已经足够深刻改变人类社会了。

大部分人还意识不到这一点。这就是为什么我要一直出视频的原因——我要把那些能看到未来的人筛选出来、聚集起来。本期视频,我会用一个具体的例子,分享我目前是怎么用AI学习的。如果你看了有感觉,记得加入我们社群。

OK,咱们开始吧。

当我想深入了解某个议题的时候,我不会直接问AI,而是先自己做拆解。

比如,我对AI PC有疑惑。如果我上来就直接问AI,那大概率就是:请给我生成一份AI PC发展趋势报告。

不客气地说,这种搞法,是非常低效、无效的,也是非常没水平的。我不用看结果都知道,肯定是一份四平八稳、特别水的报告。

正确的做法是,你要先在自己脑子里过一遍,先做拆解,把你对这个议题的初步判断、大致理解、特别想弄明白的问题梳理出来。比如,关于AI PC,我特别想知道的有两点:

第一,AI PC是不是伪命题?

我知道,在最关键的算力问题上,AI PC用CPU、NPU和GPU来分配和调度。那么,NPU真的靠谱吗?真的不是鸡肋吗?这个在我这边是要打个问号的。

所以第一个问题其实是关于这个品类的问题,会涉及到品类的定义、行业的标准。

第二,AI PC发展得起来吗?

我知道,目前除了英特尔在推,高通、AMD也都在搞。虽然我还不了解具体情况,但根据江湖经验,大概率这三家会有自己的路线、架构以及工具链。这就会给开发者造成很多优化上的麻烦,因为标准不统一嘛。

所以第二个问题其实是关于行业格局、生态发展的问题。

你看,这个做拆解的过程,其实就是融入个人思考上下文的过程。对于一个议题,每个人都有不同的理解、不同的侧重点。你不做拆解,就无法提炼出来,就无法给AI提供更多的Context,那AI又怎么可能生成你想要的东西呢?

就像我之前在社群里说的:

AI时代,答案都在那里,只要你能问对问题。

当做完拆解之后,我就可以通过Deep Research生成多份报告,各有各的针对性。就像AI PC的例子,我让Gemini帮我生成了两份报告。

为什么是两份而不是整合成一份?因为单份的会更详细、更聚焦。而且,两份报告之间肯定有重叠的部分。没准能互相补充或者验证。

报告好了之后,就可以导出到Google文档了。我前两天在社群里说过,这是别家都没有的功能和体验。因为,导出之后,就可以在NotebookLM里添加了。

NotebookLM是目前最好的AI学习工具,我推荐过好多次了。它特别适合有教材、有文档的场景。

在这个框的左下角,我们可以从Google文档里加载。刚才导出的两份Deep Research报告都在里边。

等个几秒钟,模型会完成解析。这时就可以对话了。比如,我会问它:AI PC是伪概念、智商税吗?NPU是鸡肋吗?英特尔、高通、AMD在发展AI PC上,有哪些路线、架构的不同?

这些回答,如果觉得OK的话,可以Pin一下,把它们变成笔记。

我知道,有的人可能还是会抱怨,Deep Research出来的东西还是不太行。其实在我看来,不管是好的反馈还是坏的反馈,都是反馈,都有价值。

比如Gemini做这两份报告,应该查了上百个网页,把目前关于AI PC的公开报道都覆盖了。所以,假如这两份报告不太OK,我也会很高兴——因为它代表了目前媒体、自媒体的看法,说明目前的市场共识是有问题的。而我将要去挖掘更正确、更有可能成为下一阶段市场共识的非共识。

如果你有投资、有创业的Mindset,遇到这种共识偏差情况,应该会非常兴奋。当然啦,普通大众没有,他们只会抱怨。

好了,不跑题。我这个AI学习过程还没完,咱们继续。

通过刚才的问答,我们在NotebookLM的帮助下,把资料消化得差不多了,也保存了一些笔记。那么下一步,我会让AI帮我把所有的资料都整合成一份,包括最初生成的两份报告,以及在探讨过程中存下来的、我感兴趣的笔记。

之所以要这么做,主要原因是,学习不是这一趟学了就完事了——之后还得重温,还得学而时习之,有需要的时候肯定还会回来翻看。所以,我需要把这个过程中的所有产出都整合,变成一份完整的东西。而且,还要做精简、脱水,只保留最精华的部分,这样下一次我查看的时候,效率更高。

为了实现这个效果,我这边用到Cursor,搭配Gemini 2.5 Pro。