NPM
Key Takeaway
- 作者开发了一个Obsidian MCP,提供搜索、读取、创建、移动笔记和管理文件夹等功能。
- 该MCP支持多种安装方式,包括Claude桌面版的DXT方式、远程NPM包安装和本地安装。
- 使用该MCP可以摆脱Obsidian内置AI插件的限制,通过熟悉的AI客户端(如Claude、ChatGPT)直接访问和管理笔记。
- 结合Prompt House等工具,可以实现更智能的笔记管理和AI调用。
- 作者强调了上下文对于AI创造价值的重要性,认为机会在于为AI提供充分恰当的上下文。
Full Content
作为Obsidian重度用户,我给这款软件做了个MCP。大概率啊,它是目前市面上最全面的Obsidian MCP服务器。
在功能方面,它可以搜索仓库,可以读取、创建、移动笔记,还可以管理里边的文件夹。
在安装方式方面,它支持三种:
如果你用的是Claude桌面版,那么我强烈建议你用DXT的方式。这是Anthropic最新推出的方法。你只需要把DXT文件下载到本地,双击它,就能完成安装。
或者,你可以使用远程安装。我已经把NPM包发布了。所以你只需要在配置文件里把这些填上就OK。
如果你动手能力强,也可以采用本地安装。你可以使用npm install把整个包下载到本地,也可以整个仓库下载下来再安装,或者用Docker也可以。
那为什么需要这个MCP?
因为有了它,你就不需要用Obsidian里的AI插件了——说实话,那些插件做得总是差点意思。你可以继续使用你熟悉的、世界上最好的AI客户端,比如Claude、ChatGPT等等,然后把客户端和笔记仓库对接,让AI能够访问你的所有笔记,帮你管理那些笔记。
更进一步,如果你能搭配使用我开发的Prompt House,在提示词里设置好检索规则等等。当遇到特定情况,AI先使用Prompt House MCP获取特定的提示词,然后自动去你的仓库里查找特定的笔记,一环套一环,不需要你下复杂的命令。
目前我只开发出了Obsidian MCP的基础功能。所以它在现阶段跟File System MCP有很多重叠的地方。因为笔记仓库本质上就是一个本地文件夹,笔记本质上就是一个Markdown文件。下一步,我会开发进阶功能,比如自动添加反向链接功能等等。大家可以期待一下。
那么,这个MCP该如何安装呢?我来演示一下前三种安装方法,因为它们是最简单的,适合所有人。
在开始之前,你需要做两个准备工作。
第一,你得知道你笔记仓库的地址。比如我在桌面上创建了一个用于演示的仓库,那么它的地址就是这一串。
第二,你需要安装Local REST API这个插件。在Obsidian社区插件里搜一下就有。然后Install、Enable。在设置里边,把非加密这个选项打开,因为我们后边要使用这个27123的端口。这个 API Key之后也会用到。
先来看DXT的安装方式。
来到GitHub页面,下载DXT文件。你可以把它理解为就是一个全部都打包好的安装文件。双击之后,它会帮你自动打开Claude桌面版。然后,点击Intall,把刚才准备好的仓库地址和API Key填进去,把这个MCP服务器启动起来,就全部搞定了。
接着是NPM包的安装方式。
我这边用的客户端是Cherry Studio。新建一个MCP服务器,类型选stdio,命令填npx,参数填@huangyihe/obsidian-mcp——这是我发布的npm包的名字,环境变量这么填,然后保存就搞定了。
最后是本地安装的方法。
先在终端里运行这一行命令。接着打开客户端,我这边用的是ChatWise。照样新建一个MCP服务器,类型选stdio,命令填obsidian-mcp,环境变量还是这两行。最后点击“查看工具”,能刷出这些工具就说明安装成功了。
刚才这三种方法,总有一个适合你。至于效果,我到Claude里给你看看。
我问Claude:Obsidian都有哪些笔记?这个是看它的检索能力。你看,它调用工具、很快就列出来了。
再来个难一点的:帮我在笔记仓库里创建一个名为123的文件夹,把Welcome笔记移动到里边。然后在123文件夹内创建一个名为MCP的笔记,内容是关于模型上下文协议的介绍。
你看,Claude 4的工具调用能力确实是目前最强的,轻松且准确地完成了任务。
说实话,这么多客户端,目前我用得最舒服的,还是Claude桌面版。尤其是MCP的调用方面,它的体验和效果是最好的。
最后,One more thing:我为什么要开发这个MCP,以及之前做的Prompt House。
就像我在社群内说的:Context matters!
模型的能力已经足够强了。接下来,要让模型创造价值,需要给它充分的、恰当的上下文。对于我们这些不是做模型研发的开发者、创业者来说,机会就藏在上下文里边。
OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Kimi K2是月之暗面推出的开源大模型,其代码生成和Agentic能力表现出色,被认为是国产模型在AI编程和Agent产品领域的突破。
- Kimi K2的能力介于Claude 3.5和Claude 3.7之间,足以驱动Agent产品。
- 替换Claude Code模型有两种方法:最简单的是通过设置环境变量直接切换到Kimi K2 API;另一种是使用Claude Code Router项目,该项目支持多种模型服务商的API配置。
- AI编程工具由大模型(大脑)和编程助手(眼睛和手脚)两部分组成,大模型决定上限,编程助手提供工具操作能力。
- Kimi团队通过特定工作流激发了Kimi K2的工具使用能力,使其在预训练阶段就学会了如何使用工具。
Full Content
如果你用Claude Code有难度,那么,可以把模型换成Kimi K2,照样也能跑得起来。而且,效果可能会让你眼前一亮。
Kimi K2是月之暗面最新推出的模型,开源,1T参数。我最感兴趣的,是它的代码生成和Agentic能力。
说实话,对于国产模型来说,这两个能力,我一直没看到比较出众的。这也导致国产模型在AI编程、Agent产品这一波越来越落后。
直到Kimi K2的出现。
老外对这个模型的热度超过了国内用户。他们说,K2就是又一个“DeepSeek-R1时刻”。Kimi算法小哥的这篇博客也引起了老外极大兴趣。
我自己体验下来,感觉K2的能力大概介于Claude 3.5和Claude 3.7之间。用一句话总结就是:足以驱动Agent产品,能够拿来干活了。
你别觉得我评价低了。要知道,今天大部分Agent产品完全依赖Claude模型。Kimi能把国产模型在这一块的空白补上,是非常牛逼的!
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。
回到今天的主题:用Kimi K2驱动Claude Code。
要更换Claude Code的模型,网上有很多方法。我给大家介绍两个。先来一个对大多数人来说最简单的。
第一步,你去月之暗面官网注册账号,然后生成API Key。如果打算长期使用的话,可以充点钱。你看我就充了50块钱,属于Tier 1级别。Kimi的API费用很低,跟Claude比起来简直就是白菜价。大家可以大胆使用。
第二步,来到终端,运行这两行命令。它们的作用是设置环境变量,把模型的调用渠道切换到月之暗面那边。
设置完之后,输入claude,把Claude Code启动。这时模型就已经换成K2了。
第二个方法,略微折腾一点。不过好处是,可以更换各种模型。
Claude Code Router这个项目就是一个路由器,让你随意配置模型,以及做自定义设置。
它支持的模型服务商很多,包括OpenRouter、DeepSeek、Ollama、Gemini等等。Kimi官方的API也是支持的。
使用起来也挺简单的。运行这一行命令,把npm包安装好。然后打开config.json文件,像我这样配置Kimi官方的API。如果你不想填配置文件也OK,输入ccr start这行命令。按照它的要求,输入provider name、url、api key、model name,就可以完成配置。最后,输入ccr code,就可以正常使用了。
看到这里,可能有人会很奇怪:换了模型之后,Claude Code为什么还能用?
我打个简单粗暴的比方:阿姆罗能开高达,夏亚也可以开!只要Pilot够强,就都能驾驭。
我们使用的AI编程工具包含两个部分:大模型(LLM),和编程助手(Coding Assistant)。
编程除了需要脑子聪明,还需要很强的动手能力。比如要从那么复杂的代码库里找到需要的文件,或者就那么几行代码。