MCP
Key Takeaway
- AI正在改变学习和笔记方式,NotebookLM等工具改变了从文档获取知识的方式。
- Basic Memory项目旨在解决AI长期记忆问题,通过Markdown格式本地保存笔记,并用MCP连接AI,实现自然语言交互。
- 作者的AI笔记系统采用“漏斗结构”,由AI笔记库(Basic Memory创建和管理)和个人管理笔记库(Obsidian)组成。
- AI笔记库由AI自动创建文件夹和标签,作者只负责下达指令和筛选有价值笔记。
- 强调利用AI的智能和效率,将先进生产力引入个人体系,拉开人与人之间的差距。
Full Content
AI正在完全改变我们学习的方式。
比如,能联网搜索的Chatbot,以及更强大的Deep Research,改变了我们从互联网获取知识的方式。
一枝独秀的NotebookLM,改变了我们从文档里获取知识的方式。
现在,我们记录思考,或者说做笔记的方式也将发生改变。我给你们演示一下。
左边是Cursor,右边是Obsidian。我让它帮我记录这条笔记:
开源模型的价值体现在本地化的场景中。但是本地化场景里最重要的是数据和业务流改造,而不是模型。
接到请求后,Cursor调用了一个MCP,完成了笔记的创建。在右边可以看到,它根据笔记的意思,创建了一个文件夹,并且还给笔记打上对应的标签。
那既然它能记录笔记,当然也能完善笔记。比如当我有一些不太成熟的想法时,就可以这么做。
我跟Cursor说,帮我记录并完善这条笔记,关于如何提升AI产品性能。你看,它不仅把我想的东西补充完整了,还根据它自己的知识添加了两点。
我再演示一个很常见的场景。我们平时会遇到一些概念、观点之类的,觉得有价值,但是又不知道它们的确切意思。这个时候就可以让AI帮忙解释,然后记录下来。
比如,“数据中心是新的计算单元”,这个是老黄的观点。我让Cursor解释并且记录。
在这个时候,Cursor先调用了Sequential Thinking这个MCP,进行多步骤推理,确保解释的完整性。当它觉得逻辑完整了,就会开始记录。在右边的Obsidian里,咱们可以看到,它对这一句话做了很详细的拆解。
刚才这些只是非常简单的演示。在实际使用当中,我还加上了搜索的MCP,让AI的信息获取能力更强。而那个帮我记笔记的MCP,叫作Basic Memory,就是我今天要推荐给大家的项目。
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有超过1000位小伙伴付费加入啦!
回到今天的主题:Basic Memory。
这个项目主要是想解决AI长期记忆的问题。我们平时跟AI对话,很多东西聊完就过去了、丢掉了,挺可惜的。于是,Basic Memory的想法就是,用笔记的方式存下来。
第一,所有笔记都以Markdown的格式保存。这种格式,人类看得懂,AI也看得懂,再合适不过了。
第二,所有笔记都保存在本地,不用担心隐私泄露。而且有需要的话,可以用其它工具处理,比如Obsidian、Cursor。
第三,笔记仓库和AI之间,用MCP连接。AI可以自动创建笔记、读取笔记。而且由于是MCP,所以完全支持自然语言交互,你直接发号施令就可以。
我其实没想这么多,完全不care什么长期记忆之类的。我的需求很简单:当我跟AI聊到什么有价值的东西,或者我脑子里冒出什么新想法的时候,我希望AI能充当记录员、小秘书的角色,帮我记录、帮我补充。
要安装Basic Memory很简单,一共就两步,有手就行。
第一步,在终端里运行uv tool install basic-memory这行命令。
我来解释一下。这个uv是一个快速、轻量级的Python包管理工具。大家经常安装开源项目的话,肯定有用过pip,比如pip install、pip list等等命令。uv的好处是,速度更快,功能更全。比如包管理、虚拟环境、工具管理,它全都有,不用再装一堆其它工具了。
类似的还有npm,只不过它针对的是JavaScript,这个我就不多说了。
当我们通过刚才那行uv命令安装完毕之后,就可以进入第二步,把这几行贴到配置文件里。
这个uvx是刚才介绍的uv的一部分,属于子命令。用它可以运行Python包里的命令。而且它有一个好处,是可以自动创建一个临时的虚拟环境,很方便。
我是在Cursor里使用的,所以就在Cursor的MCP配置文件里,把这几行贴进去,然后保存。在MCP服务器列表里就可以看到这个项目了。
Basic Memory用起来很简单,就像最开始演示的那样。我重点谈谈我对它的定位和思路。
现在我会有两个笔记库:一个是原来的Obsidian Vault,完全由我亲手创建、亲手管理。另一个是新增的,由Basic Memory创建和管理的AI笔记库。
对于这个AI笔记库,我是完全放手,绝不干预。比如,里边的文件夹设置,每条笔记的标签,都交给AI去搞。我只做两件事:
第一,下达指令。有什么需要记录的,随时跟AI说。
第二,筛选笔记。AI笔记库承接了日常我跟AI对话中有价值、值得记录的内容。我会定期从里边筛选笔记,或者让AI帮我挑,然后放到由我管理的笔记仓库里。
这其实就是一个漏斗结构。AI笔记库是最上边那一层。我要发挥AI的智能、AI的效率,帮我先过一道。
这些是我目前的思路,供大家参考。今天AI发展非常快,不管是模型还是各种工具,都在飞速迭代。所以咱们一定要多动脑子,想想怎么把这些先进生产力引入到自己的体系中来。
你相信我:人和人之间的差距,就是这么拉开的。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Cursor作为编程软件,天生具备RAG能力,能对本地文件进行索引和处理,使其成为强大的知识库应用。
- Cursor与Obsidian的本地化存储特性完美结合,用户可以通过Cursor直接操作和利用Obsidian的笔记文件。
- 通过创建
cursorrules
文档,用户可以自定义Cursor的工作方式,例如优先检索本地文档、进行联网搜索,并调用特定的MCPs(如Markitdown用于PDF转换,Sequential Thinking用于复杂问题拆解)。 - Cursor的Composer功能和聊天功能可以对笔记进行总结、提炼和扩写,充当Obsidian的“超级AI插件”。
- 这种组合工作流能够兼顾本地知识和网络信息,提供逻辑性强的答案,极大提升知识管理和创作效率。
Full Content
最好用的知识库应用,就是Cursor,没有之一!
你们经常看我发的视频就知道,过去一年多,我用了太多太多知识工具。越用越发现:大道至简,用Cursor就可以了。
你想嘛,RAG能力Cursor本来就有。它是个编程软件。既然要编程,肯定得了解所有代码的情况。所以,当Cursor打开文件夹之后,就会对文件夹内的所有文档进行索引和哈希处理。像Markdown之类的文件,它会进行切块、嵌入向量。
所以,知识库应用该有的RAG能力,Cursor天生就有。不管是代码还是纯文本,它都能一样处理。而且,因为它要写代码,所以肯定要有创建文档、修改文档的能力。这就意味着,它可以帮我们直接写笔记、写文章,对吧?
这还没完。Cursor本身具备搜索能力。你不用特意添加什么工具,它就可以联网搜索,甚至直接打开一个网页。
最后,只要出现了最先进的模型,Cursor一定会第一时间支持。所以这20美元的订阅,我个人认为是非常非常划算的。当然,如果你不想用Cursor的模型,也可以填自己的API Key进去。
那么,我们该怎么用Cursor配合自己的文档进行工作呢?
我的经验是,一定要创建一个cursorrules文档。这个文档放在根目录下,用来告诉Cursor必须遵守哪些项目规则。我给你们演示一下。
你看,我在文档里规定了:
第一,回答之前都必须首先检索文件夹内的所有文档,看看有没有相关的内容可以作为上下文。
第二,光查了本地文档还不够,还得联网搜索,这样信息才齐全。
除了这两个基本要求,我还给Cursor配了两个MCP:
如果遇上PDF文档,就用Markitdown这个MCP做转化。不然Cursor就得写个Python脚本进行处理,就非常麻烦了。
如果问题有点复杂,那就用Sequential Thinking进行拆解、组织内容,这样逻辑性才强。
这两个MCP的用途和触发条件,我都给Cursor写明白了。
最后,我还附上了一个示例,包含每一步怎么处理,清清楚楚。AI绝对可以理解。
有了这一大套底层规则,Cursor就知道怎么跟我配合了。
比如我问它:如何在本地部署知识库?
首先,它花了几秒钟思考这个问题。因为我把Thinking选项打开了。
接着,它把文件夹内的文档检索了一遍。
然后,联网搜索,进一步补充信息。
最后,用Sequential Thinking对所有内容进行梳理,把逻辑整理清楚。
你看,使用这种方法,这样的流程跑下来,知识库里的内容和网上的内容都兼顾了,获得的答案逻辑性也很强。这个就是我说Cursor 最强知识库应用的原因。
我刚才演示的规则是我的需求。大家可以根据自己的需求做修改。其实你让Cursor帮你写也是可以的。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- DeepSeek新模型V3 0324在MCP调用方面表现出色,性价比极高,性能接近Claude-3.7 Sonnet。
- DeepSeek模型具备清晰的思考和规划能力,能将用户需求拆解为明确任务,并判断所需工具。
- DeepSeek在工具调用能力上显著提升,结合其成本优势,将推动MCP的进一步普及。
- 文章预测Agent发展趋势将从任务编排模式转向模型自由发挥,以超强模型为核心,搭配海量原子化工具。
- DeepSeek的进步,加上MCP协议,预示着AI行业将迎来飞速发展。
Full Content
DeepSeek新出的模型V3 0324可能是跑MCP性价比最高的模型。它在性能上接近Claude-3.7 Sonnet,调用MCP很丝滑,但是成本却低了非常非常多,真的是白菜价了。我给你们看一下就明白了。
这个是我目前用得最多的MCP客户端Cline。DeepSeek最新模型,它已经支持了。我这边选的是付费版。平台虽然也提供免费版,但是不建议用。我前边试过了,速度太慢,而且步骤一多就容易中断,就挺闹心的。所以咱还是老老实实花钱吧。
我的需求很简单:谷歌发布Gemini 2.5模型。这是他们的官方博客。我让DeepSeek帮我把内容扒下来,翻译成中文,并且在开头加上总结,最后存进文档里。
你看,DeepSeek先做了四步规划:
第一,把用户需求拆成明确的任务;
第二,判断需要用哪些工具,包括Tavily MCP里的提取工具,以及写入文件的工具;
第三,当前的环境是,文件已经存在,用户也允许直接进行操作;
第四,给自己设定执行步骤。
这个就是AI比人类强的地方。你想嘛,有几个人能做到这么清晰思考和规划的?
整个过程花了两三分钟,我就不具体展示了。当文档写入完成后,整个任务结束,一共花了0.0358美金。
接下来,咱们加点难度。我让它调用两个MCP:一个是Sequential-thinking,步骤尽可能多。另一个是Tavily,负责联网搜索资料。每一步思考之前,都要搜一次资料,再结合搜到的内容思考。
像这种需求就特别考验模型。因为它既要懂得拆解问题,还得根据实际搜到的信息随时调整思考方向,以及下一步需要搜什么,而且还要频繁调用MCP、不能出错。
我建议大家看完视频也这么去测试,不管是测试模型还是测试客户端都可以。然后你就知道该怎么选了。
咱们回到DeepSeek这边。整个推理过程花了三分多种。DeepSeek一共做了六步思考,最终给出了答案。但是我觉得下边的要点还不够详细,于是让它进一步完善。最终,花了0.039美金,DeepSeek完成了这个回答。
通过这两个例子可以看出,DeepSeek新版本模型在使用MCP方面已经没问题了,而且价格很低。说实话,我这段时间用Claude跑MCP,已经在API上花了十几美金了。日常高频使用的话,真的会肉痛。
高性价比,就是我推荐DeepSeek的原因。官方在公众号文章里介绍了这次小版本升级。模型能力提升包括这几个方面,比如推理任务表现提高、前端开发能力增强、中文写作升级,等等。
其实我最看中的,以及我认为最重要的,是工具调用能力的提升。还是之前说过的逻辑:
AI发展的两条路径,一是获取更多信息,二是调用更多工具。
如果只能处理文本,搞不了多模态,那么AI的世界就是黑白的。这是我看好Gemini的原因。
如果只局限于推理,用不了更多工具,那么AI就只有大脑、没有手脚。这是我看好Claude的原因。
现在DeepSeek终于把工具调用能力提升上来了,叠加它本来就很强的成本优势,肯定能推动MCP进一步普及。
最后,说一下我对今年Agent发展的判断:
以Dify、Coze为代表的任务编排模式会逐渐被取代。这种做法虽然精确度高,但是太费人力,门槛也很高,而且非常限制模型的发挥,所以只适合企业生产环境。
我认为,最优解一定是:人类只需要设定起点,也就是Context、上下文,以及终点,也就是目标。在起点和终点之间一切,都交给模型自由发挥。
一个超强的模型作为单核,搭配海量、原子化的工具,就是AI行业今年发展的重点。
现在,我们已经有Claude和DeepSeek这样的模型了,也有MCP这样的中间层协议了。万事俱备,一切都将飞速展开。
OK,以上就是本期内容。想了解AI,来我们newtype社群。那咱们下期见!
Key Takeaway
- Dify新增“双向MCP”功能,允许用户在Dify中添加MCP服务器,并可将Dify工作流转换为MCP服务器对外输出。
- 该功能解决了工作流“孤岛”问题,使其能融入日常通用场景,极大扩展了Dify的工具范围。
- 作者重新关注Dify,认为工作流应原子化,作为组件强化特定场景效果。
- 文章通过Deep Research工作流的演示,展示了Dify与MCP结合后,AI客户端可调用特定MCP服务器解决特定需求,提升效率。
- Dify的MCP功能与提示词结合,可实现基于MCP工具和Prompt的工作流自动化,提升个人生产力。
Full Content
Dify最近上了个新功能:双向MCP。这是个非常重要的功能。因为它让原本只针对特定场景的工作流可以融合到我们日常的、通用的使用场景中。
什么叫“双向MCP”?
一个方向是进来,也就是你可以在Dify里边添加现成的MCP服务器。这个好处是,可以极大扩展Dify的工具范围,把越来越丰富的MCP服务器纳入进来。
另一个方向是出去,也就是你可以把自己创建的工作流转换成MCP服务器,对外输出。比如我用AI客户端,把工作流MCP添加进去。平时在对话中就可以直接调用。
这样一来,你搭建了半天的工作流不会被限制在某些使用场景和情况下使用,不再是孤岛。这个是非常大的进步。
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。
回到今天的主题:Dify的MCP功能。
我记得去年就出过视频介绍Dify。但是从那之后,我就不再关注这些工作流平台了。两个原因:
第一,上手难度高。这些工作流看起来好像在画布上随便搭一搭就行,但其实难度挺高的。既要懂技术,还得懂业务。一家公司能有几个这样水平的人?
第二,适用场景窄。每一条工作流都是针对某些场景、解决某些特定问题而存在的。在早期很有用,因为大模型能力不强,所以把人类的经验编排成工作流,去指导模型。但到了今天,你再把固定的工作流硬塞给模型,就有点限制它了。
那我为什么现在会重新捡起Dify,会看中这次的更新?
因为工作流不是变大了,而是变小了。它可以变成一个一个原子化的组件,融入到我的工作流里边来,去强化特定场景下的效果。这个就是MCP服务器应该有的价值。
我给你们演示一下就明白了。
这个是我在Dify里找到的现成工作流,Deep Research。我把里边的模型改成GPT-4.1,然后发布。因为发布之后,才能把MCP服务器功能打开。
点击左边这个按钮,在左下方把这个选项打开,就可以把这个工作流转变成MCP服务器。这一行就是服务器地址。因为我是在本地运行的,所以地址开头是localhost。
打开AI客户端,我这边用的是免费的Cherry Studio。新建一个MCP。连接方式选HTTP。然后把服务器地址填进去就搞定了。
我们来做一个对比。
我先使用模型内置的搜索工具,搜一个问题:什么是Context Engineering?这个是它的回答。
然后我开个新窗口。这次使用刚才接入的Deep Research MCP服务器。还是同样的问题,什么是上下文工程。
稍等几分钟,模型给出了回答。对比两次的输出,可以明显看到,使用了外挂MCP服务器的效果要好得多。
你看,这个就是我刚才说的,到了特定场景、特定需求的时候,你调用特定的MCP服务器去满足、去解决。你不需要换一个工具,还是用原来的AI客户端,这个真的很方便。
我演示用Deep Research是为了让大家好理解。其实工作流是特别定制化的。接下来,我会针对我自己的需求搭好多个工作流,然后统统转化成MCP服务器。
所以,就像我在社群里说的,现在有两套系统可以满足我们的定制化需求:一是提示词,二是基于工作流的MCP服务器。并且,这两套系统还可以用我做的产品——Prompt House进行统一调度。
这样配置下来,我相信,我的个人生产力又会有一次大的提升。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Claude Code被认为是地球上最强的AI编程工具,因为它与Claude模型深度适配和优化,且不计较上下文长度消耗。
/init
命令用于初始化项目,创建CLAUDE.md
文件,记录项目背景信息,提高效率和上下文一致性。- Plan Mode允许用户在执行复杂功能前,让Claude Code进行规划,尤其适用于不确定如何操作的场景。
/ide
命令支持Claude Code与VS Code、Cursor等IDE集成,提供更好的代码修改和提示体验。- 用户可以自定义命令,将常用操作(如解释代码)转化为快捷命令,提高工作效率。
/cost
命令用于查看API消耗,并可通过/model
命令切换模型以节省成本。- 作者强调,模型能力相同时,拥有更多工具的AI生产力更高,鼓励用户积极使用和探索MCP。
Full Content
地球上最好的AI编程工具,肯定是Claude Code。而且它接下来还会越来越好。
为什么它最强?我在社群里发过这么一段话:
如果把Claude模型比作引擎的话,那么,虽然各家公司都可以买到这个引擎,然后组装成赛车,但是只有Anthropic能发挥出它的究极实力。
大概率,Anthropic在训练Claude 4的时候,就已经把Claude Code内置的十几种工具给它用上了,对它做针对性的强化训练。
也就是说,这款引擎在研发阶段就已经跟底盘等等系统做适配、做优化了。它们就是最佳组合。其他厂商又怎么可能跟得上。
而且为了效果,Anthropic现在特别豪气,可以不计较上下文长度的消耗。相比之下,Cursor他们就得精打细算过日子,导致有时用户体验会很差。
Claude Code这么强,但是国内介绍得不多。原因很简单:中国的自媒体水平太差了。他们就只会喊“震惊”、“放大招”。碰上这种复杂的工具,还是命令行,而且还需要配置纯净的住宅IP,他们就不知道怎么下手了。
没有关系,我会出一系列视频深度介绍这款工具。今天先来五个非常实用的Tips,帮助大家用好Claude Code。
/init
当你开始一个新的项目,或者让Claude Code中途参与某个项目的时候,一定要先运行/init这条命令,也就是initialize,初始化。
这条命令最主要的作用,是创建一个CLAUDE.md文件。这个文件会包含项目所有的背景信息,包括:项目的核心概述和目标;重要的代码约定和风格指南;关键的文件和工具函数列表,等等。
有了这份文件,每次你启动Claude Code,它就会自动加载,这样它就明白整个项目的情况,不需要你重复说明。另外,当你的项目开发有了任何进展,也可以让Claude把进展写进这个文档。
所以,这行简单的命令,以及它生成的CLAUDE.md文件对于提高效率、保持上下文一致性非常重要。大家记得用起来。
Plan Mode
大部分情况下,我们都是让Claude Code在那边“自动驾驶”。但是,当有一些比较复杂的功能想要实现,或者我们自己也没想好究竟该怎么做的时候,可以切换到Plan Mode,让Claude Code先帮我们做好规划,然后再执行。
要切换到Plan Mode很简单,按快捷键shift加tab就行。比如,我想要提升高并发、服务器断连的应对能力。我自己想了一些解决方案,比如搞个API Key的备用池子等等。我把这些告诉Claude Code,让它帮我完整规划。
接到需求后,它会把需求有关的代码全部过一遍,然后给出非常详细的方案。如果觉得OK,可以让它照着开始执行。
说真的,这个模式挺好用的。当你拿不准的时候,记得让Claude帮你规划。
/ide
虽然Claude Code主要通过命令行界面,也就是CLI进行交互,在终端里运行,但是它也支持跟VS Code、Cursor集成,让用户在IDE的环境中获得更好的体验。
比如,集成之后,你可以看到文件中代码的改动,就像在Cursor里看到的一样。另外,当你选中几行代码之后,Claude Code那边也会有提示。
那么,要做到这一点,你需要做两件事,非常简单:
第一,安装Claude Code插件。这个搜一下就有,然后点击install安装。
第二,运行/ide命令,然后选择对应的IDE,比如我这边是Cursor。然后回车就搞定了。
Custom Command
Claude Code有很多现成的命令可以使用。除此之外,其实你也可以根据自己的需要去自定义命令。
Key Takeaway
- Prompt House是一款用于提示词管理和调用的工具,通过MCP协议实现模型自动获取和使用提示词,从而串联组成工作流。
- 作者通过Mac版Prompt House演示了如何在一个提示词中嵌套多个MCP工具和提示词,实现复杂任务的自动化。
- Prompt House的核心价值在于将MCP工具和提示词结合,形成基于Workflow的自动化能力。
- Mac版Prompt House相比网页版具有数据本地存储、更强大的AI润色功能(支持本地模型或自定义API Key)和更快的速度。
- 文章强调了AI时代产品应“水涨船高”,通过产品传递方法论,并持续开发新功能以满足用户需求。
Full Content
我终于把Mac版的Prompt House做出来了。
搞这个Mac版可比开发网页版麻烦多了。花了我小一周的时间,两百美元成本,用目前最先进的编程模型Claude Opus 4怼出来的。
我老婆说我鬓角多了两根白头发。我说,白头发OK,没秃就行。
过程中的困难我在这边就不多说了。之前在社群内发过好长的一段总结,大家可以自己去看。那么,我之所以废了这么大力气搞出网页版和Mac版,是因为我有一套提示词进阶用法,但是市面上没有这样的工具能实现。那我就自己做咯。
我给你们演示一下,你们就明白它的价值了。
我在Prompt House里事先准备了两份提示词:
1、深度研究:明确要求使用两个MCP工具——Sequential Thinking和Tavily进行至少三轮的轮拆解、分析、搜集。当完成后,使用另一份提示词“总结报告”完成最终输出。
2、总结报告:要求逻辑清晰、结构合理、表达简洁等,并且每个小结都必须有明确结论和支撑。
来到客户端(我这边用的是ChatWise),我@prompthouse,要求进行深度研究。
于是,模型知道两点:第一,要使用Prompt House MCP;第二,要获取关于深度研究的提示词。
所以,模型先调用第一个工具获取Prompt House上所有提示词的列表,从中找到“深度研究”提示词,然后获取这份提示词的完整内容。
因为在这份提示词里,我明确要求组合使用两个MCP工具进行多轮研究,所以模型开始调用Sequential Thinking和Tavily,一个分析、一个搜集,把需要的资料收集齐。
当资料都搞定之后,就该输出最终的报告了。
因为我在“深度研究”这份提示词的结尾明确要求了,如果要输出报告,就必须使用另外一份“总结报告”提示词。于是,模型再次调用Prompt House MCP,拿到“总结报告”提示词,根据里边的详细要求,完成整份报告的输出。
你看,在Prompt House的串联下,模型自动跑完了一整个工作流,里边涉及到多个MCP工具的调用,还涉及到多份提示词。
今天有那么多的MCP工具。那么,什么时候用什么工具?工具之间如何组合使用?这些都可以在一份提示词里交代清楚。
你也不需要在一份提示词里把所有工作都交代完成。完全可以拆成小的子任务,放在多份提示词里边。然后根据需要,灵活挑选几份、组合使用。
有了Prompt House作为调度枢纽,我们就有了一个基于MCP tools + Prompts的Workflow,足以自动化完成一些复杂任务。
我之前在社群内说过,所有工具、所有SaaS的核心,是方法论。通过Prompt House这个产品,我把我关于提示词的方法论充分表达,分享给大家。
模型调用工具的能力越强、上下文长度越大,这套方法论和工具能实现的价值就越大。我坚信,AI时代,一定要做水涨船高的产品。
如果你get到了,欢迎登录prompthouse.app这个网站使用。网页版免费。
如果你想长期使用,建议购买Mac版。点击网页左下角的Purchase就可以购买,9.98美元。我想了一下,还是不搞订阅制了。采用买断制,大家都舒服。
为什么要花这9.98美元呢?使用Mac版有这三个好处:
第一,数据全都存在本地,你不用担心隐私的问题。
第二,“AI润色”功能更强大。网页版用的是我的API Key。为了节省成本,我选择GPT-4o mini。性能差一些,但是白菜价。
到了Mac版这边,大家有两个选择:可以使用Ollama调用开源模型。或者,用自己的API Key,选择更好的模型,比如GPT-4.1。
“AI润色”功能不仅可以帮你润色提示词内容,还可以生成标题和标签。这样你就不用花心思去想这些了。对模型来说,准确的标题、丰富的标签能显著提升它的筛选效率和准确率。
第三,速度更快,体验更好。毕竟是一款软件,用起来肯定比网页顺畅。而且MCP服务器是在本地,所以连接速度也更快。
目前功能都是Prompt House的MVP功能。在此基础上,从下周开始,我还有好几个功能会陆续开发。比如,提示词的推荐功能。我会持续搜集好用的提示词,通过产品推送给用户。用户点个收藏就能保存进自己的提示词仓库里。
Key Takeaway
- “全局记忆”对于提升AI对话连贯性、实现个人助理功能以及构建全球知识共享工具至关重要。
- OpenMemory项目通过独立存储聊天记录并利用MCP协议,实现了跨客户端和跨对话的AI记忆共享。
- OpenMemory的功能实现依赖于大模型(用于语义理解和检索)、本地化存储(确保隐私、数据可移植性和扩展性)以及MCP协议(实现不同客户端间的内存共享)。
- 作者强调了上下文对于AI创造价值的重要性,并指出“全局记忆”领域为创业者提供了开放和发展的机会。
- 建议将知识库的存储与调用分离,本地存储数据,通过MCP调用,从而获得更自由的模型选择。
- 智能是吸引用户的手段,而数据才是长期留住用户的关键。
Full Content
虽然我经常喷OpenAI,不过他们关于“全局记忆”的判断和观点我是非常认同的。
往小了说,“全局记忆”关系到对话的连贯性。这是今天AI在体验上的一大痛点。
你回想一下,今天大多数的AI客户端,你每开一个新的对话,是不是就好像在跟一个陌生人对话。因为你们过去交流的,它都不知道,你又得重新聊一遍。
这么搞,效率很低,而且工具感很强,你不会觉得这是个有智能的生命。
往大了说,“全局记忆”不只覆盖所有的历史对话,还可以、也应该包括用户的各种资料,甚至包括更广的知识库。
一旦技术成熟,把AI打造成为一个全面的个人助理、一个全球知识共享工具是很有可能的。这个就是OpenAI的野心。
当然啦,这个愿景有点远。不过站在今天,我们还是可以先体验一下的——通过OpenMemory这个项目。
简单来说,OpenMemory的作用就是把聊天记录单独存储。任意一个客户端里聊的东西都可以存进去。然后通过MCP进行调用。任意一个客户端都可以调用任何记录。我给你们演示一下就明白了。
我已经安装OpenMemory,并且通过SSE的连接方式与客户端ChatWise连上了。可以看到,这个MCP一共有四个tools,分别是添加、查询、检索、删除。
我这边准备了一段话,让AI把这些关于Prompt House的内容保存。LLM接到请求后,通过MCP调用add_memories这个tool,成功把那一段话保存起来了。
这时,在同一个对话框,我提出问题:记忆中都有哪些内容?可以看到,LLM很顺利把刚才保存的那条记录调出来了。
接下来,我们打开一个新的对话框,看看AI是否还“记得”刚才的内容。问题很简单:Prompt House主要解决哪两个问题?通过list_memories和search_memories两个tools,LLM把刚才存进去的内容调出,并基于内容完成回答。
同一个客户端的不同对话框,LLM能够自由存储和调用记忆。那么,跨应用呢?我这边打开Cursor,同样的问题:Prompt House主要解决哪两个问题?Claude Sonnet 4也是使用search_memories这个tool,把记忆取回。
你看,无论是跨对话框还是跨客户端,OpenMemory MCP都能实现记忆的存储和调取。
为了实现这些功能,OpenMemory做了三点:
第一,调用大模型。
要把用户的对话存储起来,首先要做的就是“理解”——先理解语义,才能区分哪些是噪音,哪些是重要信息。
不仅如此,在存储的时候,还需要大模型去区分记忆当中的冲突,完成更新。在检索的时候,也需要大模型在语义层面进行检索,而不只是关键词检索。
默认情况下,OpenMemory用的是OpenAI的模型,需要我们输入OpenAI API Key。不过它也支持别家的模型,包括开源大模型。如果你对隐私安全非常非常重视的话,可以连接Ollama。
第二,本地化存储。
为了让用户放心,OpenMemory把所有信息都存在本地。它采用双数据库架构,一个负责存储记忆的向量嵌入,一个存储结构化元数据。
这么设计的好处,一是完全本地化,敏感信息不会上传到云端;二是数据可移植,可以轻松备份和迁移整个数据目录;三是扩展性高,可以切换不同的大模型提供商,或者用本地模型。
第三,MCP。
任何支持MCP协议的客户端都可以通过SSE连上OpenMemory。它的MCP提供四个工具:添加,检索,查看,删除。
有了这四个工具,不同客户端就可以共享同一个内存。上下文就可以在不同客户端之间无缝传递。
我非常看好“全局记忆”这个方向。虽然巨头在做,但是,创业者也有很大机会。
因为,既然是“全局”,那就不能一家独大,就必须开放。在现阶段,有哪家能做到?这不就给了创业者生存、发育的窗口吗?
而且,现在巨头的主要精力还是放在提升模型能力上。所以,几个月前我就在社群里分享了一个思路:
把知识库的存储和调用分开。存储就放在本地,用Cursor创建一个Milvus向量数据库。调用就通过Milvus MCP。当时看大家挺感兴趣的,我还特意出了一期社群专属视频,介绍怎么搭建。
站在用户的角度看,这套思路的好处是,模型的选择会更加自由。谁的模型牛逼,我就对接过去。
站在做产品的角度看,最终留住用户的,不是智能,而是数据。智能只是一个钩子,把用户吸引过来,完成数据的迁移。
而且,智能要发挥作用、要创造价值,一定离不开上下文。这个就是我之前在社群内说的:Context Matters。
回过头来看,过去几个月我分享的那些零散的思路,还有我最近的尝试,全都串起来了。
OK,不多说了。我要继续做产品去了。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。我所有的感悟和认知,都会在社群内分享。那咱们下期见!
Key Takeaway
- 作者分享了如何利用AI(特别是Claude)自动生成n8n工作流的方法。
- n8n是一个开源的工作流程自动化工具,具有高度灵活性和广泛集成,并支持JSON格式的工作流导入导出。
- n8n的MCP Trigger功能可以将工作流转化为可被外部系统调用的服务,实现“工作流即服务”。
- 通过配置n8n MCP,Claude可以生成JSON格式的工作流,实现AI生成、AI使用的闭环。
- 即使是复杂的工作流,如果出现错误,也可以通过将错误信息反馈给Claude进行修改。
Full Content
不会搭建工作流也没有关系,完全可以让AI自动生成。
你看这是我让Claude帮我搭建n8n的工作流。它会直接生成JSON文件。完成之后,我把文件里的代码复制,回到空白的n8n工作流里粘贴。最后把一些节点配置一下,这个工作流就可以使用了。
国内的小伙伴可能没怎么听过n8n。它是一个开源的工作流程自动化工具。n8n的灵活度非常高,而且集成非常广泛,从常见的Slack到各种数据库、CRM,它几乎是无所不包,所以在国外非常受欢迎。
对我来说,如果要用工作流的话,我首选就是n8n。除了刚才说的灵活性和高度集成之外,还有两个原因:
第一,n8n支持JSON格式的导入和导出。也就是说,整个工作流,包括节点、配置和连接,都可以被导出为一个JSON文件。同样,你也可以直接把将一个JSON文件导入进去,从而完整地复现一个工作流。
第二,n8n支持把工作流转化成MCP服务器。它在三个月前推出MCP Trigger功能。你只需要在开头添加一个MCP Server Trigger节点,工作流就变成了一个可以被外部系统通过MCP调用的服务,也就是:工作流即服务。
这两点结合在一起,就是一套AI“自产自销”的用法。就像我开头演示的那样,Claude可以直接生成JSON文件。把JSON文件导入,一个工作流就有了。然后,再把这个工作流转成MCP服务器输出给AI客户端使用。
AI生成,AI使用。这不就闭环了吗?
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。
回到今天的主题:让AI自动生成工作流。
要实现让Claude自动生成n8n工作流,需要安装n8n MCP。你可以把它理解为就是一个超大型n8n攻略。给Claude配上之后,它具备所有背景知识了。
要配置这个MCP非常简单,有手就行。
第一步,运行npx n8n-mcp这行命令。
第二步,在Claude的配置文件里,把几行贴进去。其中,链接和API Key替换成你自己的。
第三步,到Claude里创建一个项目。在Project Instructions里边,把这一大坨都复制粘贴进去。它的作用是,告诉Claude该怎么搭建工作流。
这三步完成之后,我们就可以开始生成了。为了演示,我直接从官方的Template里边挑了一个简单的工作流:
用户输入YouTube链接;通过Apify的服务获取Transcript;最后调用一个大模型对Transcript做总结。
回到Claude这边,把需求贴进去。Claude会先分析,并且提出问题,让咱们补充。等它获得所有信息之后,就会把项目的架构搭建好,然后开始生成JSON文档。
基本上简单的工作流一次就能搞定。复杂的工作流,如果出现报错的话,就把报错贴回来,让Claude修改。
等Claude生成和验证完毕之后,可以点击右上角的Copy按钮。回到n8n,直接粘贴,一个工作流就导入完成了。
而我们需要做的,就是把里边某些节点的配置完善了。比如Apify和OpenAI的节点,需要配置Credential才能运行。
你看,整个过程就是这么简单、直接。这就跟AI编程一样,只有你的需求清晰,Claude都可以搞定。我这边用的是Sonnet模型。大家还可以试试Opus模型,会更给力。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- 命令行Agent是AI发展的重要方向,它结合了庞大的工具生态、经典的Unix组合哲学和现代AI调度能力。
- Unix哲学(一切皆文件、专注做好一件事、程序间协作)与AI模型的ReAct框架(思考与行动循环)高度契合。
- 通用Agent的核心能力包括感知、思考、行动和循环验证。
- 大模型负责“思考”,命令行Agent负责“行动”。
- MCP是实现“感知”和“循环验证”的关键。
- 通用Agent的“骨架”是一个善于思考的AI大脑,嫁接在拥有海量工具的命令行身躯之上,并辅以MCP的敏锐感知。
Full Content
问你一个问题:
为什么Anthropic和Google这些大厂都在做基于命令行的编程工具?
想象一下,我们花了几十年时间,才从这种满是代码的“小黑窗”,进化到了今天这样漂亮、直观的图形界面。我们已经习惯了用鼠标,但是,诡异的事情发生了:
Anthropic发布的Claude Code,Google发布的Gemini CLI,这些最顶尖的AI工具在一夜之间集体“退化”回了那个“石器时代”。
这究竟是在开历史的倒车,还是这些顶尖高手,看到了我们普通人完全没看懂的未来?
本期视频,我会拆开来跟你们讲透。一旦你理解之后,就能看清楚通用Agent发展方向了。
我建议大家先点个收藏,因为内容可能有点深,需要多琢磨几遍。
首先我们要理解,这些大厂做的Claude Code、Gemini CLI究竟是什么。
一个词:命令行Agent。
为什么要用命令行Agent?它有什么价值?
我认为:
命令行Agent = 庞大的工具生态 + 经典的Unix组合哲学 + 现代的AI调度能力
大家放心,这个公式里的每一个概念我都会详细解释。咱们先从一个最基础的开始,也就是:
命令行是什么东西?
简单来说,在那个上古年代,用户是通过输入一行命令来给计算机下达指令,而不是像我们现在用鼠标在图形化的界面上跟计算机进行交互。
那么,用户在哪里输入命令?在一个叫终端的东西上边。不管你是用Windows还是macOS,都可以找到终端。它其实就是一个界面,用户可以输入,也可以看到计算机的反馈。
接下来,命令输入之后,计算机需要对它进行“翻译”。为什么要翻译?因为语言不通嘛。
我们通过命令行输入的东西,是文本字符串组成的,是给人看的,而机器根本看不懂。于是就了Shell、外壳这个概念,专门负责翻译。
当Shell完成翻译,就会把命令发送到内核,也就是Kernel。
所以,从命令Command Line到终端Terminal、到Shell外壳,最后到Kernel内核,这一串就是非常经典的处理流程。
这套流程中,最先进的地方,就是把外壳和内核分离。为什么要分离?
打个比方,有一家顶级餐厅:
内核就是后厨,可以做出任何菜,但它不直接跟客人说话。
外壳就是金牌服务员,他懂后厨的“行话”,也懂客户的“人话”。客户点菜,他负责翻译、下单给后厨。
而终端就是客户坐的餐桌,它是客户和服务员交流的场所。
所以,“外壳和内核分离”这个天才设计,就好比规定了:服务员不能进后厨做菜,后厨师傅也不能出来点菜。
大家各司其职,餐厅才能高效运转。一是安全,服务员摔倒了(外壳崩溃),不会影响后厨出餐(内核运行)。二是灵活,服务员可以随时根据客户的口味设计新菜单(开发者可以随时开发新命令),而不需要改造整个后厨(修改操作系统)。
这个命令行工具生态,从当年的Unix系统开始,一代一代发展、延续下来,已经变成了一个非常宝贵的资源库。
这就是前边那个等式里边,“庞大的工具生态”的意思。像Claude Code之类的命令行Agent,直接用各种各样的命令行来直接下达命令,效率非常高。
那么,后边的“经典的Unix组合哲学”是什么意思?
Unix是一个非常牛逼的操作系统。它的“子孙后代”无处不在,包括Linux、macOS,以及BSD家族。我特别喜欢它的三条设计哲学:
第一,一切皆文件(Everything is a file)。在Unix里边,无论是硬件设备、进程、还是网络连接,都可以被抽象成文件。然后你就可以用同一套简单的操作,比如open、read、write,来进行统一的交互。
第二,做一件事,并把它做好(Do One Thing and Do It Well)。程序应该保持简单,专注于一个核心功能。于是,命令就是程序;一条命令就专注干好一件事。
Key Takeaway
- MCP(Model Control Protocol)是模型的超级外挂,能显著提升AI生产力,例如通过结合Claude和MCP实现低配版Deep Research。
- Sequential Thinking MCP有助于模型进行多步骤推理,保持逻辑性和连贯性;Tavily MCP则提供优化过的搜索引擎功能。
- MCP.so是寻找和托管MCP服务器的首选平台,其核心竞争力在于MCP Server Hosting。
- 推荐关注三类MCP服务器:搜索相关(如Perplexity, Tavily)、数据相关(如Filesystem, GitHub)和工具相关(与特定应用打通)。
- MCP的通信方式取决于服务器部署位置:本地运行使用stdio(标准输入输出流),云端运行使用SSE(基于HTTP的远程通信)。
- 即使MCP服务器在本地运行,也可以通过调用远程API实现联网功能。
- 建议新手通过实践Tavily(SSE方式)和Filesystem(stdio方式)来理解和掌握MCP的使用。
Full Content
MCP就是模型的超级外挂。装上之后,你会发现,原来AI生产力可以这么高。
举个例子,我给Claude-3.7 Sonnet配上两个MCP,它就成了一个低配版的Deep Research应用。
一个MCP是Sequential Thinking。它是一种标准化的思考模式,可以让模型在处理多步骤推理任务的时候,保持逻辑性和连贯性。比如,把复杂任务分解成清晰的步骤。当有新的信息出现时,还能灵活调整思考路径。
另一个MCP是Tavily。这个之前介绍过,就是一个对模型优化过的搜索引擎。
有了它俩之后,你看,Claude就会边搜索、边思考;根据搜到的内容,调整思考的路径,然后进行下一轮搜索;当它觉得信息足够了,逻辑也完整了,就会输出最终的报告。
这么一大套流程下来,我用1美元的成本,换来了更高质量的回答。这说明了两点:
第一,OpenAI的Deep Research真的是贵有贵的道理。你看刚才那个思考和搜集的过程就知道,太费Token了。OpenAI那边肯定更复杂。
第二,MCP真的有用。我可以给你们看看对比。我把Sequential Thinking拿掉,只留联网搜索。同样的问题,模型给出的答案简单许多。
这个就是我最近一直在推MCP的原因。那么,我们要去哪里找MCP?找到之后又怎么使用呢?本期视频,我给大家做一个详细解答。
哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经超过1000人付费加入啦!
回到今天的主题:MCP实用指南。
咱们先说第一个问题:MCP哪里找?
如果你想用现成的MCP的话,那么,MCP导航网站就是你的首选。在这个领域,目前排名第一的,就是MCP.so。
MCP.so是国内明星开发者idoubi的项目。他之前做了好多项目,比如AI搜索引擎ThinkAny。我上期视频说,有人已经开始做MCP基础设施,指的就是他。
在MCP.so,已经有超过3000个服务器被收录。其实,它的核心竞争力不是导航——导航谁都能做,技术含量不高,它的核心竞争力是MCP Server Hosting。
对咱们用户来说,面对这么多服务器,该怎么挑呢?我建议,有这三种类型的服务器大家可以留意一下:
第一,搜索相关的。比如,Perplexity、Tavily都是搜索。Fetch、Firecrawl都是爬虫。
第二,数据相关的。比如,Filesystem能让模型调用本地文件,GitHub能让模型接入代码仓库。
第三,工具相关的。比如,Blender、Figma、Slack这些,你看名字就知道是跟什么应用打通了。
OK,现在大家知道去哪找,以及怎么挑MCP了。那么,如何接入、使用?
这个其实很好理解。你想嘛,既然它叫“服务器”,那么,这个服务器放在哪里,就决定了通信方式。
如果放在本地,跑在你自己的机子上,就用stdio;如果是跑在云端,比如MCP.so上边,就用SSE。
stdio就是标准输入输出流,通常用于本地通信。比如,Cursor、Claude、ChatWise之类的MCP客户端跟跑在同一台机子上的MCP服务器之间,通过标准输入(stdin)和标准输出(stdout)进行通信。
SSE则是一种基于HTTP的远程通信方式。MCP服务器远程托管。你本地的客户端通过SSE实现跨机器通信。
不太理解也没关系。我给你们看看实际的样子。
以ChatWise为例。在设置里的“工具”页面,点左下角的加号按钮,可以添加MCP服务器。在“类型”中,咱们可以选择stdio和SSE两种通信方式。
比如Sequential thinking,我是用stdio的方式。命令中的这一串其实就是GitHub上要求写的参数。因为它不需要API Key之类的东西,所以下边的环境变量就空着。
对于一些需要填写环境变量的MCP,比如Tavily,那就把API Key填进去。点击“查看工具”,ChatWise会尝试连接,然后把这个MCP下所有的工具都列出来。
那么,SSE是什么样的呢?
比如Firecrawl,我就是用SSE的方式。这个就简单多了,只需要把链接填进去。那么,链接哪来的?
还记得我刚才说的吗?如果MCP服务器跑在云端,那就通过SSE的方式连接。MCP.so就提供了这样的云端服务。
来到这个网站的Firecrawl页面,在右边填入你的API Key,点击“Connect”,它就会生成一个专属的链接。把这个链接复制下来,贴到ChatWise里边就搞定。