Cursor

AI学习法:Deep Research + Obsidian + Cursor

Key Takeaway

  • 作者介绍了一种结合Deep Research、Obsidian和Cursor的“AI学习法”,旨在实现深度研究、知识提取和知识图谱构建。
  • Deep Research提供高信息密度的输入,Obsidian通过反向链接功能将报告中的知识点系统性地关联起来。
  • Cursor的Composer功能能够直接对Obsidian笔记进行知识点提取、解释和内容生成,充当强大的AI辅助工具。
  • 这种学习法强调了AI工具组合使用的价值,以实现超越单一工具的效果。
  • 建议在与AI工具交互时,将复杂任务分解为清晰的步骤,以提高效率和准确性。
  • 长期来看,定期回顾和复习知识点对于巩固学习效果至关重要,可利用Obsidian的随机笔记插件辅助。

Full Content

介绍一个我最新研究出来的“AI学习法”,非常强大。它用到了Deep Research、Obsidian、Cursor,可以针对你的需求做深度研究、知识点提取和解释,并且形成知识图谱。

去年我出过一期社群专属视频,介绍了用Cursor搭配Obsidian使用。其实当时就有这个想法了。现在有Deep Research,这个AI学习法终于可以闭环了。

Deep Research是第一个环节。它可以提供信息密度非常大的输入。但是要完全消化的话,还需要对报告里的知识点做进一步处理。

于是,就需要Obsidian。它的反向链接功能特别好用。在一篇笔记内,如果提到了另一篇笔记,就可以链接过去,最终形成一个知识图谱。这是我把Deep Research的结果放进Obsidian的原因——让作为报告的笔记,和它相关的知识点笔记都关联在一起。这有助于我们系统性地去理解。

那么,问题又来了:知识点该如何提取和解释呢?于是,就需要Cursor。

Cursor的Composer功能可以直接对文档做修改,还可以创建新的文档。用它打开Obsidian存储在本地的笔记,通过对话就能完成一切。

最终,回到Obsidian里,我们不仅能看到一篇深度内容,而且每一个知识点都帮你捋得明明白白。剩下就靠你自己了。

AI都帮到这份上了,还有什么理由学不会?

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!

回到今天的主题:AI学习法。

我在社群内分享过,想借助AI获得Unfair Advantage,其中一个关键,就是知道如何组合使用各种AI工具,获得框架之外的效果。我的AI学习法就是最好的例子。

我给大家做一个实操演示。议题是:DeepSeek-R1有哪些技术创新?

Deep Research我用OpenAI的。目前在这个应用上,他们是全球最贵、全球最强,没有之一。稍等几分钟,一个非常详细的技术解析报告就生成了。

就像前边说的,这个报告信息密度很高。你要是硬啃的话,估计有点难度。于是,我把它复制下来,放到Obsidian里边。为了方便演示,我创建一个新的文件夹,这样一会儿大家看得比较清楚。

另外,我这边只截取了报告的第一部分,并且把Markdown格式全都去干净了。因为我发现,如果文章中有太多Markdown语法的话,会对Cursor有很大影响。很有可能它就没法对文章做修改了。

OK,接下来在Cursor中打开文件。记得在右边栏选择Composer,而不是Chat。

关于Cursor的三种模式——Chat、Composer、Agent,我之前在社群内说过:如果你要自主掌控的话,用Chat模式,可以选择接受哪一部分代码;如果你要全自动化的话,选择Agent。而Composer居中,有一定的自动化能力,正好是我们现在需要的。

接下来,把第一步需求告诉Cursor:帮咱们提取知识点,用Obsidian的反向链接格式标注出来。其中,那些常规名词不需要标注,比如公司和产品的名称。

我演示的文章不长,所以Cursor没多久就搞定了。如果是很长的文章,它会分批操作,需要我们说“继续”了,它才会继续。

第一步完成之后,这篇文章里的知识点都被标注出来了,非常清晰。第二步就是对每一个知识点都创建一个空白的md文档。文件名就是知识点的名称。也就是说,每一个知识点都是一条笔记。这样一来,通过反向链接功能,也就是前边的标注,就能把这些单独的知识点和原文串联在一起。

创建这些空白文档对Composer来说非常容易,很快就搞定了。那么第三步就是填充内容。在刚才创建的每一个空白文档内,补上这个知识点的解释,并且要通俗易懂。

因为这些都是技术名词,不是什么时效性比较强的内容,所以模型用自己的知识储备就可以搞定。

这三步完成之后,咱们就可以从Cursor回到Obsidian了。可以看到,点击文章中的知识点,就会跳转到知识点的笔记,里边有专门的解释。而打开文章的链接图谱,可以看到这篇笔记都关联了哪些笔记。需要的话,你也可以从图谱里任意跳转。

我这边演示的都是基本操作。大家在实际使用过程中可以做细化和调整。比如有哪些知识点你觉得不需要的话,可以手动删除,或者让Cursor帮你搞定。另外,当你吩咐Cursor干活的时候,尽量把步骤拆开,比如我刚才就是分成三次让它操作,并且交代得明明白白。这样才能避免很多奇怪的问题发生。

最后,One more thing:长期来看,你还需要时不时去回顾、去review之前的知识点,才能有比较好的效果。不然那些笔记都堆在那里,你再也记不得。所以,针对这种情况,我推荐安装这个插件:Open random note。就像名字说的那样,你点击一下,它就会随机打开一篇笔记。所以,你闲着无聊的时候就点几下,看几条笔记呗。相信我,真的有效果。

OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!

Cursor就是最强知识库应用,没有之一

Key Takeaway

  • Cursor作为编程软件,天生具备RAG能力,能对本地文件进行索引和处理,使其成为强大的知识库应用。
  • Cursor与Obsidian的本地化存储特性完美结合,用户可以通过Cursor直接操作和利用Obsidian的笔记文件。
  • 通过创建cursorrules文档,用户可以自定义Cursor的工作方式,例如优先检索本地文档、进行联网搜索,并调用特定的MCPs(如Markitdown用于PDF转换,Sequential Thinking用于复杂问题拆解)。
  • Cursor的Composer功能和聊天功能可以对笔记进行总结、提炼和扩写,充当Obsidian的“超级AI插件”。
  • 这种组合工作流能够兼顾本地知识和网络信息,提供逻辑性强的答案,极大提升知识管理和创作效率。

Full Content

最好用的知识库应用,就是Cursor,没有之一!

你们经常看我发的视频就知道,过去一年多,我用了太多太多知识工具。越用越发现:大道至简,用Cursor就可以了。

你想嘛,RAG能力Cursor本来就有。它是个编程软件。既然要编程,肯定得了解所有代码的情况。所以,当Cursor打开文件夹之后,就会对文件夹内的所有文档进行索引和哈希处理。像Markdown之类的文件,它会进行切块、嵌入向量。

所以,知识库应用该有的RAG能力,Cursor天生就有。不管是代码还是纯文本,它都能一样处理。而且,因为它要写代码,所以肯定要有创建文档、修改文档的能力。这就意味着,它可以帮我们直接写笔记、写文章,对吧?

这还没完。Cursor本身具备搜索能力。你不用特意添加什么工具,它就可以联网搜索,甚至直接打开一个网页。

最后,只要出现了最先进的模型,Cursor一定会第一时间支持。所以这20美元的订阅,我个人认为是非常非常划算的。当然,如果你不想用Cursor的模型,也可以填自己的API Key进去。

那么,我们该怎么用Cursor配合自己的文档进行工作呢?

我的经验是,一定要创建一个cursorrules文档。这个文档放在根目录下,用来告诉Cursor必须遵守哪些项目规则。我给你们演示一下。

你看,我在文档里规定了:

第一,回答之前都必须首先检索文件夹内的所有文档,看看有没有相关的内容可以作为上下文。

第二,光查了本地文档还不够,还得联网搜索,这样信息才齐全。

除了这两个基本要求,我还给Cursor配了两个MCP:

如果遇上PDF文档,就用Markitdown这个MCP做转化。不然Cursor就得写个Python脚本进行处理,就非常麻烦了。

如果问题有点复杂,那就用Sequential Thinking进行拆解、组织内容,这样逻辑性才强。

这两个MCP的用途和触发条件,我都给Cursor写明白了。

最后,我还附上了一个示例,包含每一步怎么处理,清清楚楚。AI绝对可以理解。

有了这一大套底层规则,Cursor就知道怎么跟我配合了。

比如我问它:如何在本地部署知识库?

首先,它花了几秒钟思考这个问题。因为我把Thinking选项打开了。

接着,它把文件夹内的文档检索了一遍。

然后,联网搜索,进一步补充信息。

最后,用Sequential Thinking对所有内容进行梳理,把逻辑整理清楚。

你看,使用这种方法,这样的流程跑下来,知识库里的内容和网上的内容都兼顾了,获得的答案逻辑性也很强。这个就是我说Cursor 最强知识库应用的原因。

我刚才演示的规则是我的需求。大家可以根据自己的需求做修改。其实你让Cursor帮你写也是可以的。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

会聊天,就会编程

Key Takeaway

  • Cursor是一款强大的AI编程IDE,能够原生支持AI功能,实现与AI的纯聊天式编程。
  • 作者通过Cursor在10分钟内不写代码,仅通过与AI对话,开发出Chrome浏览器插件,展示了AI编程的高效性。
  • Cursor的“Apply”功能能够自动定位代码修改位置,提升调试效率。
  • AI编程工具的价值在于赋予用户不具备的新技能,而非仅仅替代现有工作。
  • 文章强调AI能够将个体技能放大,创造更多价值,并展望了AI在产品开发中的广阔前景。

Full Content

三年之后,世界上最流行的编程语言是什么?

大概率不是Python、不是Java Script,而是英语。

最近在AI圈有一款IDE、编程软件超火,叫Cursor。你用过之后,估计也会有这样的想法。

我把Cursor看作是VS Code的终极进化版。它是VS Code的fork版本,各种功能基本一样,可以无缝导入过来。但是,在AI方面,Cursor就做得好多了。它不是像GitHub Copilot那样,以插件的形式植入进去,而是原生地、天然地支持——这一点非常重要,会带来质的不同。

在模型方面,Cursor很大方:你可以用它的模型,一个月订阅费用是20美金,也可以用你自己的模型,填入API Key就行。甚至,它还允许你用GitHub Copilot,不过它会提示你,不建议使用,因为性能上不如它的东西啦。

上个周末,我集中测试了一下Cursor。最好的一次,只花不到10分钟,不写任何一行代码,就是跟AI纯聊天,就开发出一个Chrome浏览器插件,能调用GPT去总结网页内容。

这10分钟的前3分钟,我用来写需求:

我希望开发一个浏览器插件,主要功能是用大模型总结网页。它会先做Scraping,也就是把网页内容都扒下来。然后把这些内容给到模型,按照Summary、Key Facts的格式输出。

在具体功能方面,插件上有三个按钮:Summarize就是总结。Settings就是设置,会要求用户输入OpenAI的API Key。插件先去确认这个Key是否可用。如果可以,就把可以使用的模型以列表都拉过来,让用户选择、保存。Clear就是清除上一次的总结结果,或者中断当前的总结任务。

当我在Word上把这些都写完之后,复制下来,打开Cursor,通过控制面板打开聊天界面,全部粘贴进去。接下来的体验跟咱们使用ChatGPT、Claude基本一样:

Cursor的反馈速度非常快,只用几秒钟就理解、拆解了需求。它告诉我们,要创建哪几个文件,每个文件的名称和代码都给到了。这时,我们只需要根据指示把文件创建好,把对应的文件开着,然后点击Apply,AI会把代码填进去。

Apply功能特别方便。因为在debug过程中,肯定要修改代码。Cursor不会把代码全部生成一遍——那就太慢、太消耗token了。所以,它只会输出需要修改的那几行。这时候,压力就给到用户这边了——因为要在几百行代码里边找到要修改的地方,还是挺费神的。所以,Apply功能会自动找到修改位置,用红色标注出原来的代码,用绿色标注出建议的代码,用户确认之后,它再自动替换。

等我们把所有代码都贴进文件里,就可以测试了。

打开Chrome浏览器的插件页面,进入开发者模式,打开代码所在的文件夹,就可以加载插件。

第一次测试肯定会有Bug。这边我们发现,Settings按钮没反应。很简单,回到Cursor里边,把问题告诉AI,然后把新生成的代码通过刚才说的Apply功能替换进去。

刷新插件,现在可以打开设置页面了。填入API Key,就像需求里说的那样,插件会先Verify一下,然后把Model List拉出来。这时会发现,List不全,只有两个模型,我猜是Cursor自作主张预设了,并没有真的去拉取。另外,点击Summarize并没有正常工作,只是显示了一个demo。

所以再次跟Cursor沟通,把这两个问题反馈了。像这样的debug过程会经常遇到。不过这一次挺幸运的,只来回处理了两趟。

再次刷新插件、重新测试。这下可以看到,模型列表正确显示出来了。点击Summarize,插件开始工作。等个几秒钟,成功总结出来了。为了确认真的可以用,我又找了两个网页,也都总结成功了。

我看了一眼时间,从写需求到测试成功,大概10分钟。这不是我第一次这么干。其实前一天也试过,不过不太成功,过程让我有点崩溃。

每一次修改代码都会带来新的Bug。我眼睁睁看着原本只有30行的代码膨胀了10倍,变成300多行,而且问题还没解决。

后来我心想,要不换个实现方式,改用多模态。先把整个页面截图下来,再给到GPT去识别和提取。结果还是不行。反正折腾了快一个小时。

到了第二天,我反思了一下。其实这个插件的工作流程就两步:先Scrape,再Summarize。之前我自己写Agent Workflow的时候就是这么处理的。于是我把需求改了一些,产品经理的活儿我干了,Cursor就专心Coding。果然,效果立竿见影。成功那一刻的快感,跟游戏通关差不多。

这款总结插件还很粗糙。如果要做到能上架的程度,可能还需要投入点时间:

第一,它的Scraping比较简单,还可以再强化,这样才能应对更多的网页。

第二,它的总结还不够好。这个调整起来很简单,不需要AI修改,我直接在提示词那边做详细要求就可以。

第三,现在只支持OpenAI,可以把Google、Anthropic等等都加上。

第四,把UI弄得好看一点。这个也简单。我找个别人的产品,截图下来给到AI,它肯定能照着做出来。

这四个要改进的地方,顺利的话,我估计再花个半小时应该能完成。全部搞定之后,就可以提交给Google审核、然后上架了。

我不喜欢说什么“未来已来”这种话,但是,Cursor给我的震撼是远超两年前的ChatGPT的。可能是因为,ChatGPT做的都是我会的东西,不就是生成一些文字嘛,而且还没我干得好。所以它带给我的只是一种新鲜和惊讶。

但是Cursor不一样。像开发一款浏览器插件这种事儿,我是完全不会,更别提在10分钟之内把原型搞定。所以这是一种震撼——它给了我完全不具备的新技能。我觉得,这个才是AI的真正价值。

今天很多人,尤其是国内的很多老板认为,AI就是用来降本,用来替代员工,成为裁员的借口。他们是把人力看做成本。他们眼中的世界是有限的,就这么点地方,所以得到处节省。

但其实,这个世界可以不是一个“有限游戏”,是可以变成“无限游戏”的。AI赋予个体从没有过的技能,或者把个体原有的技能放大好几倍。去满足更多,去创造更多,这不是更美好吗?

对我来说,如果要开发个小工具,可以在Cursor的帮助下直接完成。如果稍微复杂一点,那我也可以先做个原型出来,再花钱找前端和后端帮我完善。

突然感觉,我的整个世界变得好宽阔。也许到明年,我给到大家的,不只是这样的视频和文章,还有更多形态,可以是网页,可以是APP,甚至可以是一个小模型。我太期待了!

OK,以上就是本期内容。我要继续拉着Cursor做开发了。后续更多的发现,我会发在newtype社群里。还没加入的小伙伴抓紧吧,社群已经400多人了。今年肯定会到500人以上,明年争取突破1000。我那天想到一个Slogan很适合我这个频道以及社群,叫做“AI时代,摸着老黄过河”。好了,不扯了,咱们下期见!

最强AI编程工具Claude Code,五个使用Tips

Key Takeaway

  • Claude Code被认为是地球上最强的AI编程工具,因为它与Claude模型深度适配和优化,且不计较上下文长度消耗。
  • /init命令用于初始化项目,创建CLAUDE.md文件,记录项目背景信息,提高效率和上下文一致性。
  • Plan Mode允许用户在执行复杂功能前,让Claude Code进行规划,尤其适用于不确定如何操作的场景。
  • /ide命令支持Claude Code与VS Code、Cursor等IDE集成,提供更好的代码修改和提示体验。
  • 用户可以自定义命令,将常用操作(如解释代码)转化为快捷命令,提高工作效率。
  • /cost命令用于查看API消耗,并可通过/model命令切换模型以节省成本。
  • 作者强调,模型能力相同时,拥有更多工具的AI生产力更高,鼓励用户积极使用和探索MCP。

Full Content

地球上最好的AI编程工具,肯定是Claude Code。而且它接下来还会越来越好。

为什么它最强?我在社群里发过这么一段话:

如果把Claude模型比作引擎的话,那么,虽然各家公司都可以买到这个引擎,然后组装成赛车,但是只有Anthropic能发挥出它的究极实力。

大概率,Anthropic在训练Claude 4的时候,就已经把Claude Code内置的十几种工具给它用上了,对它做针对性的强化训练。

也就是说,这款引擎在研发阶段就已经跟底盘等等系统做适配、做优化了。它们就是最佳组合。其他厂商又怎么可能跟得上。

而且为了效果,Anthropic现在特别豪气,可以不计较上下文长度的消耗。相比之下,Cursor他们就得精打细算过日子,导致有时用户体验会很差。

Claude Code这么强,但是国内介绍得不多。原因很简单:中国的自媒体水平太差了。他们就只会喊“震惊”、“放大招”。碰上这种复杂的工具,还是命令行,而且还需要配置纯净的住宅IP,他们就不知道怎么下手了。

没有关系,我会出一系列视频深度介绍这款工具。今天先来五个非常实用的Tips,帮助大家用好Claude Code。

/init

当你开始一个新的项目,或者让Claude Code中途参与某个项目的时候,一定要先运行/init这条命令,也就是initialize,初始化。

这条命令最主要的作用,是创建一个CLAUDE.md文件。这个文件会包含项目所有的背景信息,包括:项目的核心概述和目标;重要的代码约定和风格指南;关键的文件和工具函数列表,等等。

有了这份文件,每次你启动Claude Code,它就会自动加载,这样它就明白整个项目的情况,不需要你重复说明。另外,当你的项目开发有了任何进展,也可以让Claude把进展写进这个文档。

所以,这行简单的命令,以及它生成的CLAUDE.md文件对于提高效率、保持上下文一致性非常重要。大家记得用起来。

Plan Mode

大部分情况下,我们都是让Claude Code在那边“自动驾驶”。但是,当有一些比较复杂的功能想要实现,或者我们自己也没想好究竟该怎么做的时候,可以切换到Plan Mode,让Claude Code先帮我们做好规划,然后再执行。

要切换到Plan Mode很简单,按快捷键shift加tab就行。比如,我想要提升高并发、服务器断连的应对能力。我自己想了一些解决方案,比如搞个API Key的备用池子等等。我把这些告诉Claude Code,让它帮我完整规划。

接到需求后,它会把需求有关的代码全部过一遍,然后给出非常详细的方案。如果觉得OK,可以让它照着开始执行。

说真的,这个模式挺好用的。当你拿不准的时候,记得让Claude帮你规划。

/ide

虽然Claude Code主要通过命令行界面,也就是CLI进行交互,在终端里运行,但是它也支持跟VS Code、Cursor集成,让用户在IDE的环境中获得更好的体验。

比如,集成之后,你可以看到文件中代码的改动,就像在Cursor里看到的一样。另外,当你选中几行代码之后,Claude Code那边也会有提示。

那么,要做到这一点,你需要做两件事,非常简单:

第一,安装Claude Code插件。这个搜一下就有,然后点击install安装。

第二,运行/ide命令,然后选择对应的IDE,比如我这边是Cursor。然后回车就搞定了。

Custom Command

Claude Code有很多现成的命令可以使用。除此之外,其实你也可以根据自己的需要去自定义命令。

用Cursor做UI,最有效的两个方法

Key Takeaway

  • 作者介绍了两种使用Cursor进行UI设计的方法:免费的通过通用大模型生成JSON配置,以及付费的通过v0模型API。
  • 通用大模型直接生成UI效果不佳,但通过JSON等结构化数据输入能显著提高准确性和效率。
  • v0模型是专门针对UI和前端开发训练的,通过API接入Cursor可以获得更好的UI生成效果。
  • 完成UI后,可以通过Framer Motion或Reactbits等工具添加动画效果,提升用户体验。
  • 现代前端UI开发工具箱包括React、Radix UI、Tailwind CSS和Framer Motion。

Full Content

用Cursor做UI,我这边有两个最简单、最有效的方法——一个免费,一个付费。不管你是做网页的UI还是应用程序的UI,都可以。

为什么不直接用Cursor里的模型?因为那些模型画UI都太差了,即使是Claude 4也不太行。

举个例子,这是我用Keynote为第二款产品画的UI。我把图片导出来,贴进Cursor里,使用MAX模式,选择目前最牛逼的模型Claude Opus 4,让它照着生成。

你看,这是它最终的成品,真挺拉跨的。比如,大标题分成了两行;Submit按钮没有居中;How It Works部分明明有三个容器,结果有一个跑到下边去了。

我做上一款产品Prompt House的时候,就遇到了模型怎么都画不好UI情况。非常恼火。后来实在没办法,只能让它告诉我具体的代码位置,我手动调整。

那今天要分享的方法,是这几天我新学到的。先说免费的。

当你有了一张UI的图片,不要直接放到Cursor里。你可以打开Gemini、ChatGPT或者Claude——不管哪个都行。比如我这边用的是Gemini,并且打开了Canvas功能。

我把图片贴进去,让它根据图片的样子生成一份JSON格式的设计系统配置文件。这份JSON输出包含了整体设计风格、结构元素和布局原则等等。

然后,再把这份JSON配置贴到Cursor里边,让模型完全按照它来输出。你看,这个结果是不是好多了?基本是一模一样。

那么,为什么这套方法有效?

因为,虽然模型理解自然语言完全没问题,但是一旦涉及需要精确、结构化、无歧义的数据输入场景,JSON这样的结构化数据格式,能让模型的理解更准确、处理更高效、输出更稳定。

OK,这是第一种方法,完全免费,但是略微麻烦一点。如果你做UI的需求比较强,比如需要来回修改什么的,那我推荐,直接通过API调用v0的模型。

v0模型是Vercel推出的,专门针对UI和前端开发做了训练。所以在处理这个类型的工作上,v0会比Claude之类的通用大模型更擅长、更适合。

我之前经常用v0.dev这个网页来生成UI。那如果要用API调用模型的话,就需要订阅,一个月20美金。我一般需要的时候就开一个月,集中把前端的工作都搞定了。

订阅之后,来到后台,可以生成一个API Key。回到Cursor,在模型设置里,选择API Keys选项,在这边我们可以使用自己的Key。

因为v0的API符合OpenAI的规范,所以我们把Override OpenAI Base URL选项打开。把URL中间部分改成v0.dev。填入v0的API Key,再选择Verify就搞定了。

当我们要使用的时候,可以选择一个OpenAI的模型,比如GPT-4o。虽然它显示的是GPT-4o,但其实走的是v0的通道,所以调用的是v0的模型。这样一来,我们就可以直接在Cursor里完成所有工作啦。

最后,one more thing。完成基础的UI之后,我们可以添加一些动画效果来提升用户体验。比如,可以让Cursor添加Framer Motion。我在Prompt House就用上了,网页版和Mac版都有,整体会流畅许多。

或者,你也可以使用Reactbits之类的网站,把动画的代码复制粘贴到Cursor里,让模型去集成。

就像我在社群里说的,整个前端UI会涉及到这四个部分:React是项目经理和架构师;Radix UI是功能工程师;Tailwind CSS是视觉设计师;Framer Motion是动效设计师。它们共同构成了一个非常现代和强大的前端UI开发工具箱。大家在开发的时候可以组合使用。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

详细版!我是如何用AI学习的

Key Takeaway

  • AI将成为衡量个人能力的标准,其应用能力将成为基本技能。
  • 作者分享了一套AI学习法:首先对议题进行拆解,梳理个人初步判断和问题,为AI提供上下文。
  • 利用Gemini的Deep Research功能生成多份详细报告,并通过Google文档导入NotebookLM进行AI辅助学习。
  • 使用Cursor结合Gemini 2.5 Pro对所有资料进行整合、精简和脱水,最终输出为Markdown格式的文件。
  • 强调Markdown格式是AI时代最适合的文件格式,便于人机理解和长期保存。
  • 整个AI学习流程显著提高了学习效率,拉开了人与人之间的差距。

Full Content

很快,AI就会成为人的标准。

AI生成的东西,是平庸的标准。如果你做出来的东西,比如写了一篇稿子或者弄了个报告,比不过AI的话,那么你在这个方面就是平庸的。

对AI的应用,是基本技能的标准。不会在工作中把AI用起来,就好比今天不会用Office软件。不会在学习中把AI用起来,就好比今天不会用搜索引擎查资料。

我一直觉得,今天的AI已经足够强了。按照这个趋势再更新一代,也就是GPT-5、Claude 4、Gemini 3.0的那一代,AI就会达到一个成熟的状态。AGI能不能实现不重要,因为现有的已经足够深刻改变人类社会了。

大部分人还意识不到这一点。这就是为什么我要一直出视频的原因——我要把那些能看到未来的人筛选出来、聚集起来。本期视频,我会用一个具体的例子,分享我目前是怎么用AI学习的。如果你看了有感觉,记得加入我们社群。

OK,咱们开始吧。

当我想深入了解某个议题的时候,我不会直接问AI,而是先自己做拆解。

比如,我对AI PC有疑惑。如果我上来就直接问AI,那大概率就是:请给我生成一份AI PC发展趋势报告。

不客气地说,这种搞法,是非常低效、无效的,也是非常没水平的。我不用看结果都知道,肯定是一份四平八稳、特别水的报告。

正确的做法是,你要先在自己脑子里过一遍,先做拆解,把你对这个议题的初步判断、大致理解、特别想弄明白的问题梳理出来。比如,关于AI PC,我特别想知道的有两点:

第一,AI PC是不是伪命题?

我知道,在最关键的算力问题上,AI PC用CPU、NPU和GPU来分配和调度。那么,NPU真的靠谱吗?真的不是鸡肋吗?这个在我这边是要打个问号的。

所以第一个问题其实是关于这个品类的问题,会涉及到品类的定义、行业的标准。

第二,AI PC发展得起来吗?

我知道,目前除了英特尔在推,高通、AMD也都在搞。虽然我还不了解具体情况,但根据江湖经验,大概率这三家会有自己的路线、架构以及工具链。这就会给开发者造成很多优化上的麻烦,因为标准不统一嘛。

所以第二个问题其实是关于行业格局、生态发展的问题。

你看,这个做拆解的过程,其实就是融入个人思考上下文的过程。对于一个议题,每个人都有不同的理解、不同的侧重点。你不做拆解,就无法提炼出来,就无法给AI提供更多的Context,那AI又怎么可能生成你想要的东西呢?

就像我之前在社群里说的:

AI时代,答案都在那里,只要你能问对问题。

当做完拆解之后,我就可以通过Deep Research生成多份报告,各有各的针对性。就像AI PC的例子,我让Gemini帮我生成了两份报告。

为什么是两份而不是整合成一份?因为单份的会更详细、更聚焦。而且,两份报告之间肯定有重叠的部分。没准能互相补充或者验证。

报告好了之后,就可以导出到Google文档了。我前两天在社群里说过,这是别家都没有的功能和体验。因为,导出之后,就可以在NotebookLM里添加了。

NotebookLM是目前最好的AI学习工具,我推荐过好多次了。它特别适合有教材、有文档的场景。

在这个框的左下角,我们可以从Google文档里加载。刚才导出的两份Deep Research报告都在里边。

等个几秒钟,模型会完成解析。这时就可以对话了。比如,我会问它:AI PC是伪概念、智商税吗?NPU是鸡肋吗?英特尔、高通、AMD在发展AI PC上,有哪些路线、架构的不同?

这些回答,如果觉得OK的话,可以Pin一下,把它们变成笔记。

我知道,有的人可能还是会抱怨,Deep Research出来的东西还是不太行。其实在我看来,不管是好的反馈还是坏的反馈,都是反馈,都有价值。

比如Gemini做这两份报告,应该查了上百个网页,把目前关于AI PC的公开报道都覆盖了。所以,假如这两份报告不太OK,我也会很高兴——因为它代表了目前媒体、自媒体的看法,说明目前的市场共识是有问题的。而我将要去挖掘更正确、更有可能成为下一阶段市场共识的非共识。

如果你有投资、有创业的Mindset,遇到这种共识偏差情况,应该会非常兴奋。当然啦,普通大众没有,他们只会抱怨。

好了,不跑题。我这个AI学习过程还没完,咱们继续。

通过刚才的问答,我们在NotebookLM的帮助下,把资料消化得差不多了,也保存了一些笔记。那么下一步,我会让AI帮我把所有的资料都整合成一份,包括最初生成的两份报告,以及在探讨过程中存下来的、我感兴趣的笔记。

之所以要这么做,主要原因是,学习不是这一趟学了就完事了——之后还得重温,还得学而时习之,有需要的时候肯定还会回来翻看。所以,我需要把这个过程中的所有产出都整合,变成一份完整的东西。而且,还要做精简、脱水,只保留最精华的部分,这样下一次我查看的时候,效率更高。

为了实现这个效果,我这边用到Cursor,搭配Gemini 2.5 Pro。

Mac必装AI软件

Key Takeaway

  • 作者分享了MacBook Pro的配置选择,并解释了为何选择14寸M4 Pro而非16寸M4 Max,以及未来将重负载任务交给Mac Studio的规划。
  • 推荐Mac用户安装AI相关软件,如ChatWise,它支持主流闭源模型和开源模型(如Ollama),并提供搜索和Artifacts等工具。
  • 强调了OpenRouter作为统一API管理平台的重要性,避免了多平台注册和绑定信用卡的麻烦。
  • Cursor被认为是强大的AI编程工具,结合Claude 3.7更强大,并可用于知识库管理和AI辅助创作。
  • Obsidian及其AI插件Copilot被推荐用于个人知识库,实现笔记的AI对话和实时信息查询,并强调了数据处理的重要性。
  • 建议个人AI工具选择简单轻量化,企业级才考虑重型引擎。
  • 此外,还推荐了Input Source Pro(输入法提示)、Rectangle(窗口管理)、Raycast(快速搜索)和Manico(应用快捷键)等效率工具,以提升Mac使用体验。

Full Content

我把新款MacBook Pro买回来了。借着新机入手,我给大家分享一下,Mac都有哪些必装软件,尤其是AI方面。这些工具绝对能提高你的日常效率和幸福感。

我订的这台是M4 Pro芯片,统一内存加到48G,1T硬盘。为了方便对着屏幕拍摄,我还加钱上了纳米屏。那么,为什么不上128G的M4 Max?两个原因:

第一,16寸实在太大了。我去店里看过。带着跑来跑去,真不太方便。14寸对我来说刚刚好。

第二,下半年我准备买Mac Studio。根据业内大佬推测,苹果应该会在年中或者下半年推出Mac Studio,芯片是M4 Ultra,比现在的M4 Max还强大。而且按照M2 Ultra的样子,统一内存能加到192G,比MacBook顶配的128G大多了。这样的机子拿来跑大模型不香吗?

所以,我想来想去,还是决定把重负载任务都交给Mac Studio。MacBook Pro就专心负责移动场景,就不为难它了。而且,M4 Pro加上48G统一内存已经足够给力了。

我平时拍的这些视频都是4K 10bit 422的素材,用达芬奇剪辑。这台机子剪起来完全没压力。跑大模型的话,我也测了两个黄金尺寸的效果:14B能达到每秒21个Token;32B能达到11。这样的表现,我非常满意了。

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经快1000人付费加入啦!

回到今天的主题:Mac必装软件。咱们先从AI相关的说起。

当你用了一段时间模型厂商出的应用——比如ChatGPT、Claude之后,大概率会希望通过API调用模型,以及试一试在本地运行开源大模型。两个原因:

一是更自由地体验更多的模型,并且用多少Token就付多少钱。二是更自由地去选择和组合一套工具,完全适配自己的习惯和需求,作为日常主力。

这个时候,你就需要一款像ChatWise一样的应用。

在闭源模型方面,主流的模型厂商和主流的算力平台它都支持,肯定有你想用的。

我知道大家最近为了DeepSeek注册了好几个算力平台。但是,要稳定使用的话,我建议用OpenRouter就好了,不用看别的。它不会像国内那些平台那样,总出幺蛾子——你想薅它羊毛,它想割你韭菜。在OpenRouter里,把API Key填进去,市面上所有的模型都可以选择。这就免去了你每家都得注册账号、绑定信用卡的麻烦。

在开源模型方面,大家常用的Ollama和LM Studio都有。像Ollama,你都不用做啥设置,保持软件运行就可以。ChatWise自动把所有模型都列出来了。我平时用最多的就是DeepSeek-R1 14B和Qwen2.5 14B。

光有模型不够,还得给模型配上工具。你看ChatGPT不就是在GPT模型的基础上,加了各种工具,比如搜索和画布。那到了ChatWise这边,同样也有这两个工具。

Artifacts就我之前夸过好多次,就不多说了。搜索方面,你可以用Google的免费API,也可以调用Tavily的。他们是一个专门为大模型优化过的搜索引擎。我之前自己写脚本的时候用过,挺不错的。

或者,还有一个更简单的方法,不用这些搜索引擎,直接用Perplexity的API。他们微调后的模型,有搜索、有推理,效果非常好。

ChatWise这些进阶功能需要付费才能解锁。如果你就是想要免费的,那可以用Cherry Studio。但我还是付费了。并不是冲着功能去的,只是因为它好看,用着舒服。我认为,在功能大差不差的情况下,外观和流畅度就成为选择的关键。

所以,除了Gemini 2.0和Grok 3我是在官方的网站上用,其它的模型,我全通过ChatWise加OpenRouter和Ollama来搞定。

OK,日常AI主力工具说完了,那还有两个补充。

一个是Cursor。市面上的AI编程软件很多,在细分领域各有所长。但综合来看,Cursor就是最强的,没有之一。再加上前几天Claude 3.7发布,Cursor当天就支持了。有了比3.5还强20%的3.7加持,Cursor现在更猛了。

除了编程,Cursor其实还有一些框架之外的奇怪用法。我在上一期“AI学习法”的视频里有介绍过。大家可以找来看看,肯定会有启发的。

另一个是Obsidian。更准确地说,是它的AI插件Copilot。对我来说,它的作用有两个:

第一,当我在写笔记的时候,可以直接在软件内跟AI对话,不需要切换到别的软件去。说真的,切来切去特别打断思路。而且,Copilot也可以连OpenRouter,用Perplexity的模型完成搜索,不用担心查不到实时信息。

MCP很简单,有手就行

Key Takeaway

  • MCP(Model Control Protocol)被比作AI的USB-C,旨在统一AI与各种软件的接口,实现AI按需调用工具。
  • MCP的快速发展可能受Agent概念影响,因为它为AI提供了“手脚”,是当前阶段解锁Agent的最佳途径。
  • 相较于通用Agent和复杂的工作流搭建,MCP的配置方法更简单,模型(如Claude-3.7 Sonnet)能自主选择和调用工具。
  • MCP的配置方式有两种:AI自动创建(如Cline的Marketplace)和手动编辑(如Cursor的配置文件)。
  • 通过cursorrules文档,用户可以自定义Cursor的行为,使其在处理任务时优先检索本地文档、联网搜索,并调用特定MCPs。
  • MCP服务器的通信方式分为本地的stdio和云端的SSE,即使本地运行的MCP也能通过调用远程API实现联网。
  • 掌握MCP能显著提升AI生产力,因为模型在拥有更多工具时,其能力会更强。

Full Content

我的AI比你的强,不是因为它更聪明,而是因为它手里有更多工具。

比如,你的Cursor只能编程,而我的Cursor可以用Blender进行3D建模。

你的Cursor只能编程,而我的Cursor可以把英文网页扒下来,然后翻译成中文,并且存到本地文档里。

所有这一切的实现,都是因为有了MCP。我在上上期视频介绍过这个非常非常火的协议,还没看的小伙伴抓紧看,很重要!

简单来说,MCP就是AI的USB-C。不管你是什么软件,都给我统一用这个接口协议。这样AI才能自由接入各种软件,按需调用。

就像USB-C一样,电脑、手机、键盘、鼠标等等,全都支持。一根线,既能充电,也能传输数据,非常方便。

MCP出来有一段时间了。最近一个月,我突然感觉到它在加速发展。可能是受到Agent影响。大家发现,要搞Agent,没工具不行——没工具,AI就没有手脚。看了一圈,就这个最靠谱。于是支持的人越来越多。已经有不少开发者在做基建类项目了。这个领域一定能跑出黑马来,VC的小伙伴可得盯紧了。

对用户来说,MCP是你在现阶段解锁Agent的最佳途径。

第一,像Manus那种通用Agent还没到能大规模落地的阶段。还得等一段时间。

第二,像Dify那种搭建垂类Agent Workflow的方式,其实不适合普通用户。它说是“无代码”,好像在画布上拖几下就可以。但是,你要真没编程思维、编程经验的话,肯定搞不定。

相比之下,MCP这条路就靠谱多了。

第一,像Claude-3.7 Sonnet这种模型已经非常强大了。你把各种MCP配置好,它自己知道什么时候该用啥,不用你操心。

第二,MCP的配置方法也足够简单。目前就两种方法:要么AI自动创建,要么你手动编辑。

前一种方法主要针对Cline。它在内部搭建了一个Marketplace,把主流的MCP都抓了过来。你只要点击Install,它会搞定剩下的一切。配置过程中遇到Bug的话,它也会自己想办法解决。真的太贴心了!

后一种方法也很简单。我用Cursor演示一下。

在正式开始之前,你得先去Beta里,把Standard改为Early Access。然后去左上角点击Check for Updates。这样就能把Cursor更新到0.47版本。

相比0.46版本,0.47版本给MCP添加了配置文件功能。我们可以直接在里边改动,非常方便。

比如,我想添加File System这个MCP。它的作用是,让模型能够操作指定路径下的文件,比如读和写、创建和删除等等。所有这些功能,都在工具列表下,写得清清楚楚。

大家记住,每一个MCP里都有若干个 tool。模型会根据你的请求决定用哪个MCP、用哪个tool。所以你挑选MCP的时候,记得看一下它的tool list,然后你就心里有数了。

OK,我们继续配置。把页面往下拉到NPX这边,中间这几行就是咱们要复制的。我来解释一下,很好理解:

npx就是一个命令行工具,可以执行npm包中的命令。下边的arguments就是参数的意思,它包含了三个参数:

y就是yes的意思,跳过确认提示;

@modelcontextprotocal这一串就是需要执行的npm包的名称;

下边这两行都是地址参数,告诉MCP可以访问哪里的文件。

所以,咱们接下来要做的就是,把这几行复制一下。然后打开Cursor里的配置文件,贴进去。最后把地址改一下,比如我这边就指定了可以访问桌面的文件。

保存之后,回到MCP服务器页面,就会看到filesystem这个MCP已经亮起绿灯,表示已经配置好了。它所包含的每一个工具也都列出来了。

如果你理解了我刚才演示的这些,那其它MCP基本也是同样的操作。最大的区别就是参数、环境的设置不一样。

比如Firecrawl这个爬虫MCP,它就要求咱们填写API Key。其它都不用管,就是复制、粘贴。

当你理解了Cursor的设置,其它软件也都是一样的。比如Cline、Claude那边也是这么操作的。你只要打开那个配置文件,看一眼就全明白了。

你看,这就是MCP牛逼的地方。它不是一上来就牛逼哄哄地要颠覆一切,而是尽可能降低各方的成本。所以大家才会有动力去支持你,完成接口的统一。

如果你是开发者,一定要把握这个MCP这个机会。如果你是用户,一定要亲自上手用起来。记住我这句话:

模型一样的情况下,谁可以调用更多工具,谁的生产力就更高。

OK,以上就是本期内容。想交流AI,就来我们newtype社群。那咱们下期见!

我做了个Obsidian MCP

Key Takeaway

  • 作者开发了一个Obsidian MCP,提供搜索、读取、创建、移动笔记和管理文件夹等功能。
  • 该MCP支持多种安装方式,包括Claude桌面版的DXT方式、远程NPM包安装和本地安装。
  • 使用该MCP可以摆脱Obsidian内置AI插件的限制,通过熟悉的AI客户端(如Claude、ChatGPT)直接访问和管理笔记。
  • 结合Prompt House等工具,可以实现更智能的笔记管理和AI调用。
  • 作者强调了上下文对于AI创造价值的重要性,认为机会在于为AI提供充分恰当的上下文。

Full Content

作为Obsidian重度用户,我给这款软件做了个MCP。大概率啊,它是目前市面上最全面的Obsidian MCP服务器。

在功能方面,它可以搜索仓库,可以读取、创建、移动笔记,还可以管理里边的文件夹。

在安装方式方面,它支持三种:

如果你用的是Claude桌面版,那么我强烈建议你用DXT的方式。这是Anthropic最新推出的方法。你只需要把DXT文件下载到本地,双击它,就能完成安装。

或者,你可以使用远程安装。我已经把NPM包发布了。所以你只需要在配置文件里把这些填上就OK。

如果你动手能力强,也可以采用本地安装。你可以使用npm install把整个包下载到本地,也可以整个仓库下载下来再安装,或者用Docker也可以。

那为什么需要这个MCP?

因为有了它,你就不需要用Obsidian里的AI插件了——说实话,那些插件做得总是差点意思。你可以继续使用你熟悉的、世界上最好的AI客户端,比如Claude、ChatGPT等等,然后把客户端和笔记仓库对接,让AI能够访问你的所有笔记,帮你管理那些笔记。

更进一步,如果你能搭配使用我开发的Prompt House,在提示词里设置好检索规则等等。当遇到特定情况,AI先使用Prompt House MCP获取特定的提示词,然后自动去你的仓库里查找特定的笔记,一环套一环,不需要你下复杂的命令。

目前我只开发出了Obsidian MCP的基础功能。所以它在现阶段跟File System MCP有很多重叠的地方。因为笔记仓库本质上就是一个本地文件夹,笔记本质上就是一个Markdown文件。下一步,我会开发进阶功能,比如自动添加反向链接功能等等。大家可以期待一下。

那么,这个MCP该如何安装呢?我来演示一下前三种安装方法,因为它们是最简单的,适合所有人。

在开始之前,你需要做两个准备工作。

第一,你得知道你笔记仓库的地址。比如我在桌面上创建了一个用于演示的仓库,那么它的地址就是这一串。

第二,你需要安装Local REST API这个插件。在Obsidian社区插件里搜一下就有。然后Install、Enable。在设置里边,把非加密这个选项打开,因为我们后边要使用这个27123的端口。这个 API Key之后也会用到。

先来看DXT的安装方式。

来到GitHub页面,下载DXT文件。你可以把它理解为就是一个全部都打包好的安装文件。双击之后,它会帮你自动打开Claude桌面版。然后,点击Intall,把刚才准备好的仓库地址和API Key填进去,把这个MCP服务器启动起来,就全部搞定了。

接着是NPM包的安装方式。

我这边用的客户端是Cherry Studio。新建一个MCP服务器,类型选stdio,命令填npx,参数填@huangyihe/obsidian-mcp——这是我发布的npm包的名字,环境变量这么填,然后保存就搞定了。

最后是本地安装的方法。

先在终端里运行这一行命令。接着打开客户端,我这边用的是ChatWise。照样新建一个MCP服务器,类型选stdio,命令填obsidian-mcp,环境变量还是这两行。最后点击“查看工具”,能刷出这些工具就说明安装成功了。

刚才这三种方法,总有一个适合你。至于效果,我到Claude里给你看看。

我问Claude:Obsidian都有哪些笔记?这个是看它的检索能力。你看,它调用工具、很快就列出来了。

再来个难一点的:帮我在笔记仓库里创建一个名为123的文件夹,把Welcome笔记移动到里边。然后在123文件夹内创建一个名为MCP的笔记,内容是关于模型上下文协议的介绍。

你看,Claude 4的工具调用能力确实是目前最强的,轻松且准确地完成了任务。

说实话,这么多客户端,目前我用得最舒服的,还是Claude桌面版。尤其是MCP的调用方面,它的体验和效果是最好的。

最后,One more thing:我为什么要开发这个MCP,以及之前做的Prompt House。

就像我在社群内说的:Context matters!

模型的能力已经足够强了。接下来,要让模型创造价值,需要给它充分的、恰当的上下文。对于我们这些不是做模型研发的开发者、创业者来说,机会就藏在上下文里边。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!