Agent

通用Agent长啥样

Key Takeaway

  • 命令行Agent是AI发展的重要方向,它结合了庞大的工具生态、经典的Unix组合哲学和现代AI调度能力。
  • Unix哲学(一切皆文件、专注做好一件事、程序间协作)与AI模型的ReAct框架(思考与行动循环)高度契合。
  • 通用Agent的核心能力包括感知、思考、行动和循环验证。
  • 大模型负责“思考”,命令行Agent负责“行动”。
  • MCP是实现“感知”和“循环验证”的关键。
  • 通用Agent的“骨架”是一个善于思考的AI大脑,嫁接在拥有海量工具的命令行身躯之上,并辅以MCP的敏锐感知。

Full Content

问你一个问题:

为什么Anthropic和Google这些大厂都在做基于命令行的编程工具?

想象一下,我们花了几十年时间,才从这种满是代码的“小黑窗”,进化到了今天这样漂亮、直观的图形界面。我们已经习惯了用鼠标,但是,诡异的事情发生了:

Anthropic发布的Claude Code,Google发布的Gemini CLI,这些最顶尖的AI工具在一夜之间集体“退化”回了那个“石器时代”。

这究竟是在开历史的倒车,还是这些顶尖高手,看到了我们普通人完全没看懂的未来?

本期视频,我会拆开来跟你们讲透。一旦你理解之后,就能看清楚通用Agent发展方向了。

我建议大家先点个收藏,因为内容可能有点深,需要多琢磨几遍。

首先我们要理解,这些大厂做的Claude Code、Gemini CLI究竟是什么。

一个词:命令行Agent。

为什么要用命令行Agent?它有什么价值?

我认为:

命令行Agent = 庞大的工具生态 + 经典的Unix组合哲学 + 现代的AI调度能力

大家放心,这个公式里的每一个概念我都会详细解释。咱们先从一个最基础的开始,也就是:

命令行是什么东西?

简单来说,在那个上古年代,用户是通过输入一行命令来给计算机下达指令,而不是像我们现在用鼠标在图形化的界面上跟计算机进行交互。

那么,用户在哪里输入命令?在一个叫终端的东西上边。不管你是用Windows还是macOS,都可以找到终端。它其实就是一个界面,用户可以输入,也可以看到计算机的反馈。

接下来,命令输入之后,计算机需要对它进行“翻译”。为什么要翻译?因为语言不通嘛。

我们通过命令行输入的东西,是文本字符串组成的,是给人看的,而机器根本看不懂。于是就了Shell、外壳这个概念,专门负责翻译。

当Shell完成翻译,就会把命令发送到内核,也就是Kernel。

所以,从命令Command Line到终端Terminal、到Shell外壳,最后到Kernel内核,这一串就是非常经典的处理流程。

这套流程中,最先进的地方,就是把外壳和内核分离。为什么要分离?

打个比方,有一家顶级餐厅:

内核就是后厨,可以做出任何菜,但它不直接跟客人说话。

外壳就是金牌服务员,他懂后厨的“行话”,也懂客户的“人话”。客户点菜,他负责翻译、下单给后厨。

而终端就是客户坐的餐桌,它是客户和服务员交流的场所。

所以,“外壳和内核分离”这个天才设计,就好比规定了:服务员不能进后厨做菜,后厨师傅也不能出来点菜。

大家各司其职,餐厅才能高效运转。一是安全,服务员摔倒了(外壳崩溃),不会影响后厨出餐(内核运行)。二是灵活,服务员可以随时根据客户的口味设计新菜单(开发者可以随时开发新命令),而不需要改造整个后厨(修改操作系统)。

这个命令行工具生态,从当年的Unix系统开始,一代一代发展、延续下来,已经变成了一个非常宝贵的资源库。

这就是前边那个等式里边,“庞大的工具生态”的意思。像Claude Code之类的命令行Agent,直接用各种各样的命令行来直接下达命令,效率非常高。

那么,后边的“经典的Unix组合哲学”是什么意思?

Unix是一个非常牛逼的操作系统。它的“子孙后代”无处不在,包括Linux、macOS,以及BSD家族。我特别喜欢它的三条设计哲学:

第一,一切皆文件(Everything is a file)。在Unix里边,无论是硬件设备、进程、还是网络连接,都可以被抽象成文件。然后你就可以用同一套简单的操作,比如open、read、write,来进行统一的交互。

第二,做一件事,并把它做好(Do One Thing and Do It Well)。程序应该保持简单,专注于一个核心功能。于是,命令就是程序;一条命令就专注干好一件事。

MCP很简单,有手就行

Key Takeaway

  • MCP(Model Control Protocol)被比作AI的USB-C,旨在统一AI与各种软件的接口,实现AI按需调用工具。
  • MCP的快速发展可能受Agent概念影响,因为它为AI提供了“手脚”,是当前阶段解锁Agent的最佳途径。
  • 相较于通用Agent和复杂的工作流搭建,MCP的配置方法更简单,模型(如Claude-3.7 Sonnet)能自主选择和调用工具。
  • MCP的配置方式有两种:AI自动创建(如Cline的Marketplace)和手动编辑(如Cursor的配置文件)。
  • 通过cursorrules文档,用户可以自定义Cursor的行为,使其在处理任务时优先检索本地文档、联网搜索,并调用特定MCPs。
  • MCP服务器的通信方式分为本地的stdio和云端的SSE,即使本地运行的MCP也能通过调用远程API实现联网。
  • 掌握MCP能显著提升AI生产力,因为模型在拥有更多工具时,其能力会更强。

Full Content

我的AI比你的强,不是因为它更聪明,而是因为它手里有更多工具。

比如,你的Cursor只能编程,而我的Cursor可以用Blender进行3D建模。

你的Cursor只能编程,而我的Cursor可以把英文网页扒下来,然后翻译成中文,并且存到本地文档里。

所有这一切的实现,都是因为有了MCP。我在上上期视频介绍过这个非常非常火的协议,还没看的小伙伴抓紧看,很重要!

简单来说,MCP就是AI的USB-C。不管你是什么软件,都给我统一用这个接口协议。这样AI才能自由接入各种软件,按需调用。

就像USB-C一样,电脑、手机、键盘、鼠标等等,全都支持。一根线,既能充电,也能传输数据,非常方便。

MCP出来有一段时间了。最近一个月,我突然感觉到它在加速发展。可能是受到Agent影响。大家发现,要搞Agent,没工具不行——没工具,AI就没有手脚。看了一圈,就这个最靠谱。于是支持的人越来越多。已经有不少开发者在做基建类项目了。这个领域一定能跑出黑马来,VC的小伙伴可得盯紧了。

对用户来说,MCP是你在现阶段解锁Agent的最佳途径。

第一,像Manus那种通用Agent还没到能大规模落地的阶段。还得等一段时间。

第二,像Dify那种搭建垂类Agent Workflow的方式,其实不适合普通用户。它说是“无代码”,好像在画布上拖几下就可以。但是,你要真没编程思维、编程经验的话,肯定搞不定。

相比之下,MCP这条路就靠谱多了。

第一,像Claude-3.7 Sonnet这种模型已经非常强大了。你把各种MCP配置好,它自己知道什么时候该用啥,不用你操心。

第二,MCP的配置方法也足够简单。目前就两种方法:要么AI自动创建,要么你手动编辑。

前一种方法主要针对Cline。它在内部搭建了一个Marketplace,把主流的MCP都抓了过来。你只要点击Install,它会搞定剩下的一切。配置过程中遇到Bug的话,它也会自己想办法解决。真的太贴心了!

后一种方法也很简单。我用Cursor演示一下。

在正式开始之前,你得先去Beta里,把Standard改为Early Access。然后去左上角点击Check for Updates。这样就能把Cursor更新到0.47版本。

相比0.46版本,0.47版本给MCP添加了配置文件功能。我们可以直接在里边改动,非常方便。

比如,我想添加File System这个MCP。它的作用是,让模型能够操作指定路径下的文件,比如读和写、创建和删除等等。所有这些功能,都在工具列表下,写得清清楚楚。

大家记住,每一个MCP里都有若干个 tool。模型会根据你的请求决定用哪个MCP、用哪个tool。所以你挑选MCP的时候,记得看一下它的tool list,然后你就心里有数了。

OK,我们继续配置。把页面往下拉到NPX这边,中间这几行就是咱们要复制的。我来解释一下,很好理解:

npx就是一个命令行工具,可以执行npm包中的命令。下边的arguments就是参数的意思,它包含了三个参数:

y就是yes的意思,跳过确认提示;

@modelcontextprotocal这一串就是需要执行的npm包的名称;

下边这两行都是地址参数,告诉MCP可以访问哪里的文件。

所以,咱们接下来要做的就是,把这几行复制一下。然后打开Cursor里的配置文件,贴进去。最后把地址改一下,比如我这边就指定了可以访问桌面的文件。

保存之后,回到MCP服务器页面,就会看到filesystem这个MCP已经亮起绿灯,表示已经配置好了。它所包含的每一个工具也都列出来了。

如果你理解了我刚才演示的这些,那其它MCP基本也是同样的操作。最大的区别就是参数、环境的设置不一样。

比如Firecrawl这个爬虫MCP,它就要求咱们填写API Key。其它都不用管,就是复制、粘贴。

当你理解了Cursor的设置,其它软件也都是一样的。比如Cline、Claude那边也是这么操作的。你只要打开那个配置文件,看一眼就全明白了。

你看,这就是MCP牛逼的地方。它不是一上来就牛逼哄哄地要颠覆一切,而是尽可能降低各方的成本。所以大家才会有动力去支持你,完成接口的统一。

如果你是开发者,一定要把握这个MCP这个机会。如果你是用户,一定要亲自上手用起来。记住我这句话:

模型一样的情况下,谁可以调用更多工具,谁的生产力就更高。

OK,以上就是本期内容。想交流AI,就来我们newtype社群。那咱们下期见!

Raycast + MCP = AI Mac

Key Takeaway

  • Raycast通过集成AI插件和MCP(模型控制协议),实现了Mac上的AI功能,打造“AI Mac”体验。
  • Raycast作为Mac效率中心,能实现跨应用调度,通过自然语言交互控制软件。
  • Raycast简化了MCP的部署和配置,用户可轻松安装和使用官方提供的MCP服务器。
  • MCP使得模型能够与外部工具无缝集成,提升了AI应用的实用性和便捷性。
  • 文章强调了Raycast在AI Chat、知识库辅助写作等方面的应用,并认为其是AI终端的理想形态。

Full Content

想体验AI Mac,装上Raycast就好。

Raycast不只是Mac的效率中心。添加AI插件之后,就可以实现跨应用调度。我在之前的视频里是这么说的:

一个AI枢纽去无缝集成所有软件,然后在一个界面上完成所有交互,这个就是我想要的AI PC、AI Mac的功能和体验。

现在,这个我最喜欢的Mac软件支持MCP了。你看,我跟GPT-4o mini说:打开Safari页面,进入苹果官网。通过MCP,模型很顺利就完成了任务。

模型加上MCP,就是Agent。一台终端无缝集成了模型和MCP,就成为软硬一体的Agent。这个就是我特别喜欢、特别关注Raycast的原因。

哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。已经有1000多位小伙伴付费加入啦。

回到今天的主题:Raycast MCP。

MCP出来这么久,一直有一个难题:用户部署、配置难。

作为用户,你不仅要知道去哪里找MCP服务器,还得懂得那些配置参数是什么意思。Raycast在这方面做得很棒。我给你们演示一下。

在使用MCP之前,你先安装这个插件。把Raycast唤出来,输入Store,然后搜索MCP就可以看到插件。

安装之后,搜索MCP,会看到Manage、Install、Search、Import四个选项。别管其它的,你就选择Search MCP,因为官方已经准备了一堆常用的MCP服务器。

比如,咱们选择Playwright。进去之后会看到,命令和参数已经填好了,只需要点击安装就可以搞定。

当然,Playwright是不需要填写环境变量的MCP。咱们经常会遇到像Tavily之类的,就需要填写API Key,那就把Key粘贴进去,别的不用管,安装就行。

这个是接近自动部署的方法。如果官方提供的MCP里没有自己想用的,怎么办?那就手动安装。

输入Install MCP,就能看到熟悉的界面。按照GitHub上的介绍,把命令、参数和环境变量填进来就行。其中,多个参数之间用空格隔开。

所有安装好的MCP都在Manage MCP里。选中任意一个都可以进行编辑。那么,有了MCP之后,怎么在Raycast中使用呢?

很简单,打开AI Chat。选择一个支持AI插件的模型,比如GPT-4o mini。然后在下边的添加AI插件选项中搜索名字,把MCP挂上去就可以了。

所以,我现在使用的支持MCP的客户端有两个:

一个是Raycast的AI Chat,用来快问快答。为此我还特意在Stream Deck上加了一个快捷键。因为常用的快捷键都占满了,所以分配了一个比较奇怪、不太好按的键位给AI Chat,然后放到Stream Deck里,这样就完美解决了。

另一个是Cursor。因为我添加了知识库的MCP,再加上Cursor有很强的文档编辑能力,所以需要AI辅助写作的时候,我都用Cursor。

至于ChatWise,就只能作为备用了。你看我现在的AI工具都在Stream Deck上了:涉及到MCP的话,有刚才说的那两个;不需要MCP的话,Gemini、Grok、NotebookLM足以满足。所以像这种客户端,差异化得做得足够强,不然打开率真的会很低。

OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

五款实用MCP推荐

Key Takeaway

  • MCP(模型控制协议)是提升AI生产力的关键,本文推荐五款实用MCP。
  • Tavily和Sequential Thinking组合:Tavily解决信息获取,Sequential Thinking增强模型多步骤推理能力,提升回答质量。
  • Filesystem和Markitdown组合:Filesystem允许模型访问本地文件,Markitdown将PDF转换为Markdown,使模型能处理PDF文档。
  • 向量数据库MCP(Milvus/Pinecone):用于接入个人笔记信息,实现本地或云端知识库的存储和检索。
  • 这些MCP都围绕信息展开,旨在让模型获取更多信息并提升信息处理能力,使AI从“缸中之脑”变为更完整的工具。

Full Content

MCP火这么久了,有哪些是日常当中经常会用到的,真的能提升生产力的?

本期视频我会介绍五个我基本上每天都会用的MCP。看起来特别朴实无华、没什么节目效果,但它们就是好用。

这些MCP,以及更多AI工具,我平时都会在社群内分享。想提升AI生产力的小伙伴记得加入。

那咱们先从前两个MCP开始,它们是一对组合。

Tavily是我用了很久的、专门为大模型优化过的搜索引擎。它的MCP里包含了搜索和提取两个工具,特别实用。但是,如果你只用这一个MCP,虽然可以联网搜索,但答案不会太好。

比如,我提了一个问题:皇马在本赛季为什么表现不好?详细分析。

Claude使用Tavily找了一堆网页,似乎回答了我的提问。但咱们来仔细看,它所谓的详细分析,说什么“比赛成绩不稳定”、“欧冠表现不佳”,这都是现象,不是原因,根本不叫“详细分析”。

你看,作为模型,Claude 3.7 Sonnet够强了吧?结果,给出的答案却这么水。

这个时候,就需要Sequential Thinking这个MCP。它的作用就是让模型进行多步骤推理。加上之后,效果非常明显。

还是同样的问题,详细分析皇马本赛季的原因。我特意要求使用Sequential Thinking和Tavily这一对组合。

开始都一样,就是搜集资料。但在此之后,Claude调用了七次Sequential Thinking。

展开之后可以看到,有了这个MCP,模型的逻辑明显变强了。Claude把皇马的问题提炼了出来,包括伤病、疲劳、训练方式和体能管理等等。再看正式的答案,明显比刚才的靠谱多了,对吧?

这一对组合,Tavily解决信息的问题,Sequential Thinking解决逻辑的问题。这两个都是很基础、很重要的能力,一定要给模型加上。

OK,咱们再来看接下来的两个MCP,也是一对组合。

Filesystem能让模型接入指定的文件夹,比如桌面,去读取桌面上的文件,以及创建新的文件。

像Cursor之类的客户端,因为它是拿来编程用的,所以天然就具备很强的文件读取和编辑能力。但是,像ChatWise这种客户端就难搞了。所以需要Filesystem。至于安全问题,大家可以放心:文件夹都由咱们来指定,不用担心模型会乱来。

跟Filesystem搭配的MCP是Markitdown。这是微软之前出的工具,能够将PDF转成Markdown格式。现在出了MCP之后,模型终于可以处理PDF这种文档了。

我个人对PDF是深恶痛绝的。从技术角度看,这种格式都快接近图片了,搞起来太费劲。PDF在AI时代就应该被完全淘汰。

那么,Filesystem加上Markitdown,能怎么用呢?

比如,我在桌面上有一个PDF文档,是特别有名的《Bitter Lesson》。如果我想把它转成Markdown格式的话,现在可以直接跟模型说。它会先用Filesystem确认能不能访问桌面。然后用Markitdown做转换。最后再用Filesystem在桌面创建新文件,把提取出来的内容写进去。

或者,我也可以直接让模型帮我总结。

你看,我跟模型说,帮我读取并总结桌面上的PDF文档。它马上就知道,要用Filesystem和Markitdown进行读取和提取,然后就可以总结了。

Claude上下文窗口不大,处理这种只有两页的PDF是OK。如果碰上那种十几页的,最好还是换成Gemini系列。

刚才介绍的两组MCP,前一组用来处理网页信息,后一组用来处理文档信息。那么,自己的笔记信息怎么通过MCP给到模型呢?

如果你像我一样用本地向量数据库的话,可以选择Milvus。这个数据库支持存储和检索。部署好之后,OrbStack一直挂着运行。然后不管你用哪个客户端,都可以随时通过MCP获取数据。

关于Milvus的部署,我前两天出了一期社群专属视频,把要点都一一介绍了。已经加入社群的小伙伴记得看。

如果你想用云端向量数据库的话,可以选择Pinecone。它同样也有MCP。如果你动手能力再强一些的话,可以使用AWS,这个就更强力了。之后我也会出社群专属视频详细介绍。

所以,这五个就是我每天都在使用的MCP。你发现没有,它们都围绕信息展开——让模型获取更多信息,让模型处理信息的能力提升。有了这些工具,模型就不再是缸中之脑。

OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

有了MCP,AI才完整

Key Takeaway

  • MCP(模型控制协议)是AI发展的关键,它将AI从“功能机”进化到“智能机”,解决了传统API接口不统一和不理解语义的问题。
  • MCP为AI提供统一的工具接口,使其能够自由接入和控制海量工具,实现更进阶的任务。
  • 文章通过演示AI工具(Cline)如何通过MCP调用Obsidian(笔记)和Tavily(搜索)等多个工具,展示了MCP的实际应用。
  • MCP将用户的查询、工具描述和参数结构化传递给大模型,由大模型决定如何处理。
  • Claude桌面版和Cline是目前对MCP支持最好的工具,用户也可以自行开发MCP工具。

Full Content

如果你关注AI、关注Agent,那么你一定要关注MCP,一定好好理解它,一定要多用它。

AI的发展有两条非常明确的路线,我之前在社群里说过:一是掌握更多信息,二是控制更多工具。

两年前的大模型,它的信息来源只有训练时的数据,以及推理时我们告诉它的东西。

后来,我们给它加上联网搜索,让它能获得更广阔、更及时的信息;我们给它加上RAG技术、加上知识库,让它能获得垂直领域那些不外传的信息。

这些还不够,因为都是文字信息。于是我们又上了多模态,现在连图片它都能理解了。

你看,所有这些发展都符合第一条路线——掌握更多信息。

光有信息还不够,要改变世界,你手里还得有工具。这个就是第二条路线。我认为,MCP是第二条路线的关键。

有了MCP,你手里的AI就从功能机进化到智能机。

老规矩,我先演示,再解释。

屏幕左边是Obsidian,一个笔记应用。为了演示,我新建了一个库,放了三篇之前的视频脚本作为笔记。

屏幕右边是Cline。它是一个AI插件,编程能力非常强。如果你的主力是VS Code,那一定要用它。

那么,我想给大家看的是,通过Obsidian MCP——你可以简单理解为就是一个接口,像Cline这类AI工具可以直接读取和修改Obsidian里的笔记。

咱们先从最简单的开始。我问Cline:库里都有哪些笔记?

接到请求后,Cline看了一圈环境,发现Obsidian跟一个MCP服务器连在一起。于是,它决定通过MCP服务器,调用list notes这个工具,去查询都有哪些笔记。

在RESPONSE里边,MCP服务器把查询到的信息返回给了Cline,然后它给出最终答案。

跟查询库里都有哪些笔记一样的原理,Cline还可以通过MCP服务器读取笔记的具体内容。

我问它,这篇笔记的主要内容是什么?

这时,Cline会使用read note工具去读取笔记。把一千多字的内容全部提取之后,它对内容进行总结,然后给出最终答案。

大家如果有印象的话,应该记得我之前出过两期视频,都是关于Cursor对Obsidian笔记的修改。这个做法的前提是,Cursor打开了Obsidian存放在本地的笔记仓库。

但是,并不是所有AI工具都有这样的条件和能力去调用整个笔记仓库。这时候就需要MCP服务器,它作为一个通用接口连接两端。

我刚才演示的,只连接了一个MCP服务器。其实,为了完成一项任务,AI可以连接多个MCP服务器,调用多个工具。我再演示一个例子。

这是OpenAI官网的文章,关于GPT-4.5。我把链接给到Cline,希望它能把文章的内容给扒下来。

这时,Cline发现,还有Tavily MCP可以连接。Tavily是一个专门为大模型优化过的搜索引擎。它的MCP里边有一个提取网页内容的工具。

使用这个工具,Cline顺利把网页内容给扒了下来。然后,它重新整理和总结所有信息,最终给出很清晰的回答。

接着,我给出第二条指令:把这份Summary作为新笔记,存进Obsidian里边。

你看,它调用Obsidian MCP里的create note工具,开始创建笔记。中间遇到了一个格式上的问题,主要是特殊字符导致解析错误。我猜是中文标点的问题。好在Cline很聪明,在第二次尝试的时候,主动规避了特殊字符,最后完成了笔记创建。

通过刚才的演示可以看到,像Cline、Claude之类的AI应用,能够调用各种工具,完成更进阶的任务。这个就是MCP的价值。

这么说吧:MCP就是AI的USB-C接口。

在MCP出来之前,AI都是怎么调用工具的?通过API接口对吧?但是,API有很大的局限性,不适合AI。

第一,不同工具的API都有各自的规范。

举个例子。如果要调用一个天气预报工具,我就得按它的格式要求告诉它城市名称和日期,比如单词“Beijing”、“0315”(也就是3月15日)。如果要调用一个计算器工具,我就得按它的格式要求告诉它数值和符号,比如“1”、“+”、“2”。

市面上有海量的工具。AI要知道、要去满足每一个工具的要求,这是不现实的。这就好比有的设备是USB-A接口,有的设备是micro USB,有的设备是mini USB。作为用户,看到这一堆接口,头都大了好吗!

所以,AI需要一套统一的规范,去统一所有的工具接口。就好比今天的USB-C,手机也好、电脑也好,全都用这个接口。而且,现在新的显示器还支持用USB-C接MacBook,既能充电,还能传输信号,连HDMI都省了。一根线走天下是大势所趋。

第二,API关注的是数据的传输,而非数据的含义。

就像刚才的例子,我如果问:下周一北京天气怎么样?或者,一加二等于几?像这样的数据,API没法接受,因为它不理解、也不需要理解这是什么意思。它的职责就是把数据拿过来、传过去。

但是MCP能理解。

其实也不是MCP理解的,而是它把一切都打包好,给到大模型去理解。MCP把用户的查询、工具的描述和参数,以结构化的方式传递给大模型,由大模型决定如何处理。

目前市面上对MCP支持最好的工具,一个是Claude桌面版——毕竟MCP就是他们家提出的,另一个是Cline。

我刚才演示里的两个MCP,Tavily那个是现成的,可以在Cline Marketplace里搜到。然后Cline会下载代码仓库,并且自动部署,非常方便。

而Obsidian那个,是我让Cline自动生成。过程中我没写一行代码,就是一路点“同意”,几分钟就搞定了。如果需要增加或者修改某个工具,也可以交给Cline去完成。

MCP本身并不复杂。在AI编程工具的帮助下,你也可以开发自己的MCP工具,然后部署在本地或者云端,比如Cloudflare。最核心的index文档,你完全可以在AI的帮助下理解清楚。

或者,你就用现成的。市面上已经出现好多个MCP导航网站,比如Smithery。

在商业化方面,我看到市场上也出现了第一款收费的MCP,可以帮忙设计UI。

MCP的价值得到越来越多人的认可。一切都在快速推进中。就像前边说的,如果AI只能调用有限的、预先设置好的工具的话,那不就是以前的功能机吗?通过MCP,AI可以自由接入海量工具。从这一刻开始,AI才从功能机时代迈入智能机时代。

用Kimi K2驱动Claude Code,两个方法

Key Takeaway

  • Kimi K2是月之暗面推出的开源大模型,其代码生成和Agentic能力表现出色,被认为是国产模型在AI编程和Agent产品领域的突破。
  • Kimi K2的能力介于Claude 3.5和Claude 3.7之间,足以驱动Agent产品。
  • 替换Claude Code模型有两种方法:最简单的是通过设置环境变量直接切换到Kimi K2 API;另一种是使用Claude Code Router项目,该项目支持多种模型服务商的API配置。
  • AI编程工具由大模型(大脑)和编程助手(眼睛和手脚)两部分组成,大模型决定上限,编程助手提供工具操作能力。
  • Kimi团队通过特定工作流激发了Kimi K2的工具使用能力,使其在预训练阶段就学会了如何使用工具。

Full Content

如果你用Claude Code有难度,那么,可以把模型换成Kimi K2,照样也能跑得起来。而且,效果可能会让你眼前一亮。

Kimi K2是月之暗面最新推出的模型,开源,1T参数。我最感兴趣的,是它的代码生成和Agentic能力。

说实话,对于国产模型来说,这两个能力,我一直没看到比较出众的。这也导致国产模型在AI编程、Agent产品这一波越来越落后。

直到Kimi K2的出现。

老外对这个模型的热度超过了国内用户。他们说,K2就是又一个“DeepSeek-R1时刻”。Kimi算法小哥的这篇博客也引起了老外极大兴趣。

我自己体验下来,感觉K2的能力大概介于Claude 3.5和Claude 3.7之间。用一句话总结就是:足以驱动Agent产品,能够拿来干活了。

你别觉得我评价低了。要知道,今天大部分Agent产品完全依赖Claude模型。Kimi能把国产模型在这一块的空白补上,是非常牛逼的!

哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。

回到今天的主题:用Kimi K2驱动Claude Code。

要更换Claude Code的模型,网上有很多方法。我给大家介绍两个。先来一个对大多数人来说最简单的。

第一步,你去月之暗面官网注册账号,然后生成API Key。如果打算长期使用的话,可以充点钱。你看我就充了50块钱,属于Tier 1级别。Kimi的API费用很低,跟Claude比起来简直就是白菜价。大家可以大胆使用。

第二步,来到终端,运行这两行命令。它们的作用是设置环境变量,把模型的调用渠道切换到月之暗面那边。

设置完之后,输入claude,把Claude Code启动。这时模型就已经换成K2了。

第二个方法,略微折腾一点。不过好处是,可以更换各种模型。

Claude Code Router这个项目就是一个路由器,让你随意配置模型,以及做自定义设置。

它支持的模型服务商很多,包括OpenRouter、DeepSeek、Ollama、Gemini等等。Kimi官方的API也是支持的。

使用起来也挺简单的。运行这一行命令,把npm包安装好。然后打开config.json文件,像我这样配置Kimi官方的API。如果你不想填配置文件也OK,输入ccr start这行命令。按照它的要求,输入provider name、url、api key、model name,就可以完成配置。最后,输入ccr code,就可以正常使用了。

看到这里,可能有人会很奇怪:换了模型之后,Claude Code为什么还能用?

我打个简单粗暴的比方:阿姆罗能开高达,夏亚也可以开!只要Pilot够强,就都能驾驭。

我们使用的AI编程工具包含两个部分:大模型(LLM),和编程助手(Coding Assistant)。

编程除了需要脑子聪明,还需要很强的动手能力。比如要从那么复杂的代码库里找到需要的文件,或者就那么几行代码。