AI工具

详细版!我是如何用AI学习的

Key Takeaway

  • AI将成为衡量个人能力的标准,其应用能力将成为基本技能。
  • 作者分享了一套AI学习法:首先对议题进行拆解,梳理个人初步判断和问题,为AI提供上下文。
  • 利用Gemini的Deep Research功能生成多份详细报告,并通过Google文档导入NotebookLM进行AI辅助学习。
  • 使用Cursor结合Gemini 2.5 Pro对所有资料进行整合、精简和脱水,最终输出为Markdown格式的文件。
  • 强调Markdown格式是AI时代最适合的文件格式,便于人机理解和长期保存。
  • 整个AI学习流程显著提高了学习效率,拉开了人与人之间的差距。

Full Content

很快,AI就会成为人的标准。

AI生成的东西,是平庸的标准。如果你做出来的东西,比如写了一篇稿子或者弄了个报告,比不过AI的话,那么你在这个方面就是平庸的。

对AI的应用,是基本技能的标准。不会在工作中把AI用起来,就好比今天不会用Office软件。不会在学习中把AI用起来,就好比今天不会用搜索引擎查资料。

我一直觉得,今天的AI已经足够强了。按照这个趋势再更新一代,也就是GPT-5、Claude 4、Gemini 3.0的那一代,AI就会达到一个成熟的状态。AGI能不能实现不重要,因为现有的已经足够深刻改变人类社会了。

大部分人还意识不到这一点。这就是为什么我要一直出视频的原因——我要把那些能看到未来的人筛选出来、聚集起来。本期视频,我会用一个具体的例子,分享我目前是怎么用AI学习的。如果你看了有感觉,记得加入我们社群。

OK,咱们开始吧。

当我想深入了解某个议题的时候,我不会直接问AI,而是先自己做拆解。

比如,我对AI PC有疑惑。如果我上来就直接问AI,那大概率就是:请给我生成一份AI PC发展趋势报告。

不客气地说,这种搞法,是非常低效、无效的,也是非常没水平的。我不用看结果都知道,肯定是一份四平八稳、特别水的报告。

正确的做法是,你要先在自己脑子里过一遍,先做拆解,把你对这个议题的初步判断、大致理解、特别想弄明白的问题梳理出来。比如,关于AI PC,我特别想知道的有两点:

第一,AI PC是不是伪命题?

我知道,在最关键的算力问题上,AI PC用CPU、NPU和GPU来分配和调度。那么,NPU真的靠谱吗?真的不是鸡肋吗?这个在我这边是要打个问号的。

所以第一个问题其实是关于这个品类的问题,会涉及到品类的定义、行业的标准。

第二,AI PC发展得起来吗?

我知道,目前除了英特尔在推,高通、AMD也都在搞。虽然我还不了解具体情况,但根据江湖经验,大概率这三家会有自己的路线、架构以及工具链。这就会给开发者造成很多优化上的麻烦,因为标准不统一嘛。

所以第二个问题其实是关于行业格局、生态发展的问题。

你看,这个做拆解的过程,其实就是融入个人思考上下文的过程。对于一个议题,每个人都有不同的理解、不同的侧重点。你不做拆解,就无法提炼出来,就无法给AI提供更多的Context,那AI又怎么可能生成你想要的东西呢?

就像我之前在社群里说的:

AI时代,答案都在那里,只要你能问对问题。

当做完拆解之后,我就可以通过Deep Research生成多份报告,各有各的针对性。就像AI PC的例子,我让Gemini帮我生成了两份报告。

为什么是两份而不是整合成一份?因为单份的会更详细、更聚焦。而且,两份报告之间肯定有重叠的部分。没准能互相补充或者验证。

报告好了之后,就可以导出到Google文档了。我前两天在社群里说过,这是别家都没有的功能和体验。因为,导出之后,就可以在NotebookLM里添加了。

NotebookLM是目前最好的AI学习工具,我推荐过好多次了。它特别适合有教材、有文档的场景。

在这个框的左下角,我们可以从Google文档里加载。刚才导出的两份Deep Research报告都在里边。

等个几秒钟,模型会完成解析。这时就可以对话了。比如,我会问它:AI PC是伪概念、智商税吗?NPU是鸡肋吗?英特尔、高通、AMD在发展AI PC上,有哪些路线、架构的不同?

这些回答,如果觉得OK的话,可以Pin一下,把它们变成笔记。

我知道,有的人可能还是会抱怨,Deep Research出来的东西还是不太行。其实在我看来,不管是好的反馈还是坏的反馈,都是反馈,都有价值。

比如Gemini做这两份报告,应该查了上百个网页,把目前关于AI PC的公开报道都覆盖了。所以,假如这两份报告不太OK,我也会很高兴——因为它代表了目前媒体、自媒体的看法,说明目前的市场共识是有问题的。而我将要去挖掘更正确、更有可能成为下一阶段市场共识的非共识。

如果你有投资、有创业的Mindset,遇到这种共识偏差情况,应该会非常兴奋。当然啦,普通大众没有,他们只会抱怨。

好了,不跑题。我这个AI学习过程还没完,咱们继续。

通过刚才的问答,我们在NotebookLM的帮助下,把资料消化得差不多了,也保存了一些笔记。那么下一步,我会让AI帮我把所有的资料都整合成一份,包括最初生成的两份报告,以及在探讨过程中存下来的、我感兴趣的笔记。

之所以要这么做,主要原因是,学习不是这一趟学了就完事了——之后还得重温,还得学而时习之,有需要的时候肯定还会回来翻看。所以,我需要把这个过程中的所有产出都整合,变成一份完整的东西。而且,还要做精简、脱水,只保留最精华的部分,这样下一次我查看的时候,效率更高。

为了实现这个效果,我这边用到Cursor,搭配Gemini 2.5 Pro。

Gemini新手教学

Key Takeaway

  • Google Gemini提供了教育优惠,可免费使用Gemini Advanced、NotebookLM Plus和2TB网盘空间。
  • Gemini的超大上下文长度(100万token)使其在处理长文档(如PDF翻译)方面表现出色,远超其他模型。
  • Gemini与Google生态系统深度整合,能无缝处理YouTube视频总结(带时间戳)、Gmail邮件翻译和回复、Google Docs和Sheets的内容编辑和生成等。
  • Gemini的强大生态和模型能力使其在AI应用竞争中具有显著优势。

Full Content

最近是入手Gemini的好时机。因为Google推出了教育优惠,可以免费使用15个月的AI产品,包括Gemini Advanced、NotebookLM Plus,以及2TB的网盘空间。

我在Twitter上看到好多人已经薅到这一波价值300美金的羊毛了。听说那些卖教育邮箱的都赚翻了。具体方法网上很多教程都有,这里就不展开了。

那么,当注册好之后,该怎么用好Gemini呢?我这边分享两点经验,也是Google和OpenAI在模型及产品方面的很大不同。如果你有好的用法,也欢迎在评论区告诉我。

第一,上下文长度。

当大部分模型还停留在128K的时候,Gemini已经达到100万了,并且之后还准备扩展到200万。所谓上下文长度,你可以简单理解就是AI一次性能处理多少内容。那么,超大上下文不管是在编程还是日常使用,都非常有价值。我演示一下你们就明白了。

我这边有一份几十页的PDF文档,分别让ChatGPT和Gemini帮我全文翻译。

先来看ChatGPT这边。当我把文档扔进去之后,它说,这个文档太大了,只能分批翻译。

而Gemini那边特别干脆,直接一口气就全搞定了,而且速度快多了。

你看,这个就是硬实力,也是我非常喜欢Gemini的原因。这就好比是,ChatGPT一杯酒扭扭捏捏还没喝完,Gemini已经吹一瓶了。

所以,以后有任何英文的PDF,你都可以放心交给Gemini处理。“全文翻译”这四个字的含金量,你用了就知道。

第二,生态打通。

AI已经到了拼应用的阶段了。这个时候,有生态和没生态,那完全是两种用户体验。

举个最简单的例子:处理YouTube视频。

很多YouTube视频非常有质量,比如Lex的。但是,他的播客动不动就三个小时,我是真没时间看下去。所以,贴到Gemini里边,让它帮我总结Key takeaway。

这时可以看到,Gemini会调用YouTube,把Key takeaway和对应的时间戳都一起输出。如果对哪个部分感兴趣,点击时间戳就可以直接跳转过去,非常方便。

作为对比,我把同样的需求给到ChatGPT。它应该是调用第三方插件完成的,但是效果差多了。一是颗粒度不够,二是没有添加用来跳转的时间戳。

把YouTube链接给Gemini处理算是比较高频的需求了,不管你是学习还是做自媒体都用得着。除此之外,Gemini跟Google的其它产品还有更多联动。

之前我在视频里分享了Gemini Deep Research、Google Docs、NotebookLM之间的配合。其实,Gemini已经遍布Google全家桶。

当你成为付费用户之后,打开Gmail就会看到,右侧多了Gemini的对话窗口。你可以让它帮你翻译邮件,或者起草一个英文回复,把大概意思告诉它就好。

还记得刚才我让Gemini全文翻译的文档吗?因为我打开了Canvas功能,所以可以把结果导出到Google Docs。然后,在Google Docs里边,可以对这个文档做进一步的编辑处理。

比如,我可以让Gemini更通俗易懂地总结全文核心要点。然后在文档的开头直接插入。

除了操作文档,Gemini还可以帮我们操作表格。这个太无聊了,我就不演示了。简单来说就是,以前我们在单元格里输入等号,然后可以做一些加减乘除。那现在有了Gemini之后,同样输入等号,后面跟AI加括号,就可以把提示词和要操作的单元格输入进去,让AI帮你搞定。

你看,这个就是老牌互联网厂商的家底。人家要模型有模型,要生态有生态。你要是敢打价格战,人家高兴还来不及呢。OpenAI作为新公司,上半场很风光,到了下半场的淘汰赛,会很有压力。

刚才介绍的那些,都是最常用的。除此之外,还有Gem可以做定制化,输入提示词、上传文档就行,这个大家就自己尝试吧。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

MCP实用指南

Key Takeaway

  • MCP(Model Control Protocol)是模型的超级外挂,能显著提升AI生产力,例如通过结合Claude和MCP实现低配版Deep Research。
  • Sequential Thinking MCP有助于模型进行多步骤推理,保持逻辑性和连贯性;Tavily MCP则提供优化过的搜索引擎功能。
  • MCP.so是寻找和托管MCP服务器的首选平台,其核心竞争力在于MCP Server Hosting。
  • 推荐关注三类MCP服务器:搜索相关(如Perplexity, Tavily)、数据相关(如Filesystem, GitHub)和工具相关(与特定应用打通)。
  • MCP的通信方式取决于服务器部署位置:本地运行使用stdio(标准输入输出流),云端运行使用SSE(基于HTTP的远程通信)。
  • 即使MCP服务器在本地运行,也可以通过调用远程API实现联网功能。
  • 建议新手通过实践Tavily(SSE方式)和Filesystem(stdio方式)来理解和掌握MCP的使用。

Full Content

MCP就是模型的超级外挂。装上之后,你会发现,原来AI生产力可以这么高。

举个例子,我给Claude-3.7 Sonnet配上两个MCP,它就成了一个低配版的Deep Research应用。

一个MCP是Sequential Thinking。它是一种标准化的思考模式,可以让模型在处理多步骤推理任务的时候,保持逻辑性和连贯性。比如,把复杂任务分解成清晰的步骤。当有新的信息出现时,还能灵活调整思考路径。

另一个MCP是Tavily。这个之前介绍过,就是一个对模型优化过的搜索引擎。

有了它俩之后,你看,Claude就会边搜索、边思考;根据搜到的内容,调整思考的路径,然后进行下一轮搜索;当它觉得信息足够了,逻辑也完整了,就会输出最终的报告。

这么一大套流程下来,我用1美元的成本,换来了更高质量的回答。这说明了两点:

第一,OpenAI的Deep Research真的是贵有贵的道理。你看刚才那个思考和搜集的过程就知道,太费Token了。OpenAI那边肯定更复杂。

第二,MCP真的有用。我可以给你们看看对比。我把Sequential Thinking拿掉,只留联网搜索。同样的问题,模型给出的答案简单许多。

这个就是我最近一直在推MCP的原因。那么,我们要去哪里找MCP?找到之后又怎么使用呢?本期视频,我给大家做一个详细解答。

哈喽大家好,欢迎来到我的频道。谦虚地说啊,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经超过1000人付费加入啦!

回到今天的主题:MCP实用指南。

咱们先说第一个问题:MCP哪里找?

如果你想用现成的MCP的话,那么,MCP导航网站就是你的首选。在这个领域,目前排名第一的,就是MCP.so。

MCP.so是国内明星开发者idoubi的项目。他之前做了好多项目,比如AI搜索引擎ThinkAny。我上期视频说,有人已经开始做MCP基础设施,指的就是他。

在MCP.so,已经有超过3000个服务器被收录。其实,它的核心竞争力不是导航——导航谁都能做,技术含量不高,它的核心竞争力是MCP Server Hosting。

对咱们用户来说,面对这么多服务器,该怎么挑呢?我建议,有这三种类型的服务器大家可以留意一下:

第一,搜索相关的。比如,Perplexity、Tavily都是搜索。Fetch、Firecrawl都是爬虫。

第二,数据相关的。比如,Filesystem能让模型调用本地文件,GitHub能让模型接入代码仓库。

第三,工具相关的。比如,Blender、Figma、Slack这些,你看名字就知道是跟什么应用打通了。

OK,现在大家知道去哪找,以及怎么挑MCP了。那么,如何接入、使用?

这个其实很好理解。你想嘛,既然它叫“服务器”,那么,这个服务器放在哪里,就决定了通信方式。

如果放在本地,跑在你自己的机子上,就用stdio;如果是跑在云端,比如MCP.so上边,就用SSE。

stdio就是标准输入输出流,通常用于本地通信。比如,Cursor、Claude、ChatWise之类的MCP客户端跟跑在同一台机子上的MCP服务器之间,通过标准输入(stdin)和标准输出(stdout)进行通信。

SSE则是一种基于HTTP的远程通信方式。MCP服务器远程托管。你本地的客户端通过SSE实现跨机器通信。

不太理解也没关系。我给你们看看实际的样子。

以ChatWise为例。在设置里的“工具”页面,点左下角的加号按钮,可以添加MCP服务器。在“类型”中,咱们可以选择stdio和SSE两种通信方式。

比如Sequential thinking,我是用stdio的方式。命令中的这一串其实就是GitHub上要求写的参数。因为它不需要API Key之类的东西,所以下边的环境变量就空着。

对于一些需要填写环境变量的MCP,比如Tavily,那就把API Key填进去。点击“查看工具”,ChatWise会尝试连接,然后把这个MCP下所有的工具都列出来。

那么,SSE是什么样的呢?

比如Firecrawl,我就是用SSE的方式。这个就简单多了,只需要把链接填进去。那么,链接哪来的?

还记得我刚才说的吗?如果MCP服务器跑在云端,那就通过SSE的方式连接。MCP.so就提供了这样的云端服务。

来到这个网站的Firecrawl页面,在右边填入你的API Key,点击“Connect”,它就会生成一个专属的链接。把这个链接复制下来,贴到ChatWise里边就搞定。

MCP很简单,有手就行

Key Takeaway

  • MCP(Model Control Protocol)被比作AI的USB-C,旨在统一AI与各种软件的接口,实现AI按需调用工具。
  • MCP的快速发展可能受Agent概念影响,因为它为AI提供了“手脚”,是当前阶段解锁Agent的最佳途径。
  • 相较于通用Agent和复杂的工作流搭建,MCP的配置方法更简单,模型(如Claude-3.7 Sonnet)能自主选择和调用工具。
  • MCP的配置方式有两种:AI自动创建(如Cline的Marketplace)和手动编辑(如Cursor的配置文件)。
  • 通过cursorrules文档,用户可以自定义Cursor的行为,使其在处理任务时优先检索本地文档、联网搜索,并调用特定MCPs。
  • MCP服务器的通信方式分为本地的stdio和云端的SSE,即使本地运行的MCP也能通过调用远程API实现联网。
  • 掌握MCP能显著提升AI生产力,因为模型在拥有更多工具时,其能力会更强。

Full Content

我的AI比你的强,不是因为它更聪明,而是因为它手里有更多工具。

比如,你的Cursor只能编程,而我的Cursor可以用Blender进行3D建模。

你的Cursor只能编程,而我的Cursor可以把英文网页扒下来,然后翻译成中文,并且存到本地文档里。

所有这一切的实现,都是因为有了MCP。我在上上期视频介绍过这个非常非常火的协议,还没看的小伙伴抓紧看,很重要!

简单来说,MCP就是AI的USB-C。不管你是什么软件,都给我统一用这个接口协议。这样AI才能自由接入各种软件,按需调用。

就像USB-C一样,电脑、手机、键盘、鼠标等等,全都支持。一根线,既能充电,也能传输数据,非常方便。

MCP出来有一段时间了。最近一个月,我突然感觉到它在加速发展。可能是受到Agent影响。大家发现,要搞Agent,没工具不行——没工具,AI就没有手脚。看了一圈,就这个最靠谱。于是支持的人越来越多。已经有不少开发者在做基建类项目了。这个领域一定能跑出黑马来,VC的小伙伴可得盯紧了。

对用户来说,MCP是你在现阶段解锁Agent的最佳途径。

第一,像Manus那种通用Agent还没到能大规模落地的阶段。还得等一段时间。

第二,像Dify那种搭建垂类Agent Workflow的方式,其实不适合普通用户。它说是“无代码”,好像在画布上拖几下就可以。但是,你要真没编程思维、编程经验的话,肯定搞不定。

相比之下,MCP这条路就靠谱多了。

第一,像Claude-3.7 Sonnet这种模型已经非常强大了。你把各种MCP配置好,它自己知道什么时候该用啥,不用你操心。

第二,MCP的配置方法也足够简单。目前就两种方法:要么AI自动创建,要么你手动编辑。

前一种方法主要针对Cline。它在内部搭建了一个Marketplace,把主流的MCP都抓了过来。你只要点击Install,它会搞定剩下的一切。配置过程中遇到Bug的话,它也会自己想办法解决。真的太贴心了!

后一种方法也很简单。我用Cursor演示一下。

在正式开始之前,你得先去Beta里,把Standard改为Early Access。然后去左上角点击Check for Updates。这样就能把Cursor更新到0.47版本。

相比0.46版本,0.47版本给MCP添加了配置文件功能。我们可以直接在里边改动,非常方便。

比如,我想添加File System这个MCP。它的作用是,让模型能够操作指定路径下的文件,比如读和写、创建和删除等等。所有这些功能,都在工具列表下,写得清清楚楚。

大家记住,每一个MCP里都有若干个 tool。模型会根据你的请求决定用哪个MCP、用哪个tool。所以你挑选MCP的时候,记得看一下它的tool list,然后你就心里有数了。

OK,我们继续配置。把页面往下拉到NPX这边,中间这几行就是咱们要复制的。我来解释一下,很好理解:

npx就是一个命令行工具,可以执行npm包中的命令。下边的arguments就是参数的意思,它包含了三个参数:

y就是yes的意思,跳过确认提示;

@modelcontextprotocal这一串就是需要执行的npm包的名称;

下边这两行都是地址参数,告诉MCP可以访问哪里的文件。

所以,咱们接下来要做的就是,把这几行复制一下。然后打开Cursor里的配置文件,贴进去。最后把地址改一下,比如我这边就指定了可以访问桌面的文件。

保存之后,回到MCP服务器页面,就会看到filesystem这个MCP已经亮起绿灯,表示已经配置好了。它所包含的每一个工具也都列出来了。

如果你理解了我刚才演示的这些,那其它MCP基本也是同样的操作。最大的区别就是参数、环境的设置不一样。

比如Firecrawl这个爬虫MCP,它就要求咱们填写API Key。其它都不用管,就是复制、粘贴。

当你理解了Cursor的设置,其它软件也都是一样的。比如Cline、Claude那边也是这么操作的。你只要打开那个配置文件,看一眼就全明白了。

你看,这就是MCP牛逼的地方。它不是一上来就牛逼哄哄地要颠覆一切,而是尽可能降低各方的成本。所以大家才会有动力去支持你,完成接口的统一。

如果你是开发者,一定要把握这个MCP这个机会。如果你是用户,一定要亲自上手用起来。记住我这句话:

模型一样的情况下,谁可以调用更多工具,谁的生产力就更高。

OK,以上就是本期内容。想交流AI,就来我们newtype社群。那咱们下期见!

我做了个Obsidian MCP

Key Takeaway

  • 作者开发了一个Obsidian MCP,提供搜索、读取、创建、移动笔记和管理文件夹等功能。
  • 该MCP支持多种安装方式,包括Claude桌面版的DXT方式、远程NPM包安装和本地安装。
  • 使用该MCP可以摆脱Obsidian内置AI插件的限制,通过熟悉的AI客户端(如Claude、ChatGPT)直接访问和管理笔记。
  • 结合Prompt House等工具,可以实现更智能的笔记管理和AI调用。
  • 作者强调了上下文对于AI创造价值的重要性,认为机会在于为AI提供充分恰当的上下文。

Full Content

作为Obsidian重度用户,我给这款软件做了个MCP。大概率啊,它是目前市面上最全面的Obsidian MCP服务器。

在功能方面,它可以搜索仓库,可以读取、创建、移动笔记,还可以管理里边的文件夹。

在安装方式方面,它支持三种:

如果你用的是Claude桌面版,那么我强烈建议你用DXT的方式。这是Anthropic最新推出的方法。你只需要把DXT文件下载到本地,双击它,就能完成安装。

或者,你可以使用远程安装。我已经把NPM包发布了。所以你只需要在配置文件里把这些填上就OK。

如果你动手能力强,也可以采用本地安装。你可以使用npm install把整个包下载到本地,也可以整个仓库下载下来再安装,或者用Docker也可以。

那为什么需要这个MCP?

因为有了它,你就不需要用Obsidian里的AI插件了——说实话,那些插件做得总是差点意思。你可以继续使用你熟悉的、世界上最好的AI客户端,比如Claude、ChatGPT等等,然后把客户端和笔记仓库对接,让AI能够访问你的所有笔记,帮你管理那些笔记。

更进一步,如果你能搭配使用我开发的Prompt House,在提示词里设置好检索规则等等。当遇到特定情况,AI先使用Prompt House MCP获取特定的提示词,然后自动去你的仓库里查找特定的笔记,一环套一环,不需要你下复杂的命令。

目前我只开发出了Obsidian MCP的基础功能。所以它在现阶段跟File System MCP有很多重叠的地方。因为笔记仓库本质上就是一个本地文件夹,笔记本质上就是一个Markdown文件。下一步,我会开发进阶功能,比如自动添加反向链接功能等等。大家可以期待一下。

那么,这个MCP该如何安装呢?我来演示一下前三种安装方法,因为它们是最简单的,适合所有人。

在开始之前,你需要做两个准备工作。

第一,你得知道你笔记仓库的地址。比如我在桌面上创建了一个用于演示的仓库,那么它的地址就是这一串。

第二,你需要安装Local REST API这个插件。在Obsidian社区插件里搜一下就有。然后Install、Enable。在设置里边,把非加密这个选项打开,因为我们后边要使用这个27123的端口。这个 API Key之后也会用到。

先来看DXT的安装方式。

来到GitHub页面,下载DXT文件。你可以把它理解为就是一个全部都打包好的安装文件。双击之后,它会帮你自动打开Claude桌面版。然后,点击Intall,把刚才准备好的仓库地址和API Key填进去,把这个MCP服务器启动起来,就全部搞定了。

接着是NPM包的安装方式。

我这边用的客户端是Cherry Studio。新建一个MCP服务器,类型选stdio,命令填npx,参数填@huangyihe/obsidian-mcp——这是我发布的npm包的名字,环境变量这么填,然后保存就搞定了。

最后是本地安装的方法。

先在终端里运行这一行命令。接着打开客户端,我这边用的是ChatWise。照样新建一个MCP服务器,类型选stdio,命令填obsidian-mcp,环境变量还是这两行。最后点击“查看工具”,能刷出这些工具就说明安装成功了。

刚才这三种方法,总有一个适合你。至于效果,我到Claude里给你看看。

我问Claude:Obsidian都有哪些笔记?这个是看它的检索能力。你看,它调用工具、很快就列出来了。

再来个难一点的:帮我在笔记仓库里创建一个名为123的文件夹,把Welcome笔记移动到里边。然后在123文件夹内创建一个名为MCP的笔记,内容是关于模型上下文协议的介绍。

你看,Claude 4的工具调用能力确实是目前最强的,轻松且准确地完成了任务。

说实话,这么多客户端,目前我用得最舒服的,还是Claude桌面版。尤其是MCP的调用方面,它的体验和效果是最好的。

最后,One more thing:我为什么要开发这个MCP,以及之前做的Prompt House。

就像我在社群内说的:Context matters!

模型的能力已经足够强了。接下来,要让模型创造价值,需要给它充分的、恰当的上下文。对于我们这些不是做模型研发的开发者、创业者来说,机会就藏在上下文里边。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

用Kimi K2驱动Claude Code,两个方法

Key Takeaway

  • Kimi K2是月之暗面推出的开源大模型,其代码生成和Agentic能力表现出色,被认为是国产模型在AI编程和Agent产品领域的突破。
  • Kimi K2的能力介于Claude 3.5和Claude 3.7之间,足以驱动Agent产品。
  • 替换Claude Code模型有两种方法:最简单的是通过设置环境变量直接切换到Kimi K2 API;另一种是使用Claude Code Router项目,该项目支持多种模型服务商的API配置。
  • AI编程工具由大模型(大脑)和编程助手(眼睛和手脚)两部分组成,大模型决定上限,编程助手提供工具操作能力。
  • Kimi团队通过特定工作流激发了Kimi K2的工具使用能力,使其在预训练阶段就学会了如何使用工具。

Full Content

如果你用Claude Code有难度,那么,可以把模型换成Kimi K2,照样也能跑得起来。而且,效果可能会让你眼前一亮。

Kimi K2是月之暗面最新推出的模型,开源,1T参数。我最感兴趣的,是它的代码生成和Agentic能力。

说实话,对于国产模型来说,这两个能力,我一直没看到比较出众的。这也导致国产模型在AI编程、Agent产品这一波越来越落后。

直到Kimi K2的出现。

老外对这个模型的热度超过了国内用户。他们说,K2就是又一个“DeepSeek-R1时刻”。Kimi算法小哥的这篇博客也引起了老外极大兴趣。

我自己体验下来,感觉K2的能力大概介于Claude 3.5和Claude 3.7之间。用一句话总结就是:足以驱动Agent产品,能够拿来干活了。

你别觉得我评价低了。要知道,今天大部分Agent产品完全依赖Claude模型。Kimi能把国产模型在这一块的空白补上,是非常牛逼的!

哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。

回到今天的主题:用Kimi K2驱动Claude Code。

要更换Claude Code的模型,网上有很多方法。我给大家介绍两个。先来一个对大多数人来说最简单的。

第一步,你去月之暗面官网注册账号,然后生成API Key。如果打算长期使用的话,可以充点钱。你看我就充了50块钱,属于Tier 1级别。Kimi的API费用很低,跟Claude比起来简直就是白菜价。大家可以大胆使用。

第二步,来到终端,运行这两行命令。它们的作用是设置环境变量,把模型的调用渠道切换到月之暗面那边。

设置完之后,输入claude,把Claude Code启动。这时模型就已经换成K2了。

第二个方法,略微折腾一点。不过好处是,可以更换各种模型。

Claude Code Router这个项目就是一个路由器,让你随意配置模型,以及做自定义设置。

它支持的模型服务商很多,包括OpenRouter、DeepSeek、Ollama、Gemini等等。Kimi官方的API也是支持的。

使用起来也挺简单的。运行这一行命令,把npm包安装好。然后打开config.json文件,像我这样配置Kimi官方的API。如果你不想填配置文件也OK,输入ccr start这行命令。按照它的要求,输入provider name、url、api key、model name,就可以完成配置。最后,输入ccr code,就可以正常使用了。

看到这里,可能有人会很奇怪:换了模型之后,Claude Code为什么还能用?

我打个简单粗暴的比方:阿姆罗能开高达,夏亚也可以开!只要Pilot够强,就都能驾驭。

我们使用的AI编程工具包含两个部分:大模型(LLM),和编程助手(Coding Assistant)。

编程除了需要脑子聪明,还需要很强的动手能力。比如要从那么复杂的代码库里找到需要的文件,或者就那么几行代码。