Kimi Claw补上我的AI OS最后一块拼图
有了Kimi Claw之后,现在我的流程是:本地跑OpenCode + newtype Profile,所有创作、探讨都在本地进行、本地存储;云端跑Kimi Claw,负责自动化、定时搜集资料。中间用Email来桥接,把云端资料存进本地文件夹(Obsidian)。
Key Takeaway
AI OS完整闭环:本地OpenCode(+newtype Profile插件)负责深度创作和知识管理,云端Kimi Claw负责信息搜集、自动化任务和重度计算,通过邮件中转实现本地-云端无缝同步,彻底解决出门断连问题。
Kimi Claw核心优势:一键部署的云端托管版OpenClaw,由K2.5全能模型驱动,支持最高8个子Agent并行协作,Claw Hub技能商店可随意扩展能力,性价比远超自购硬件跑OpenClaw。
最优推荐方案:对普通人而言,直接用Kimi Claw(Beta会员可用)补上AI OS最后一块拼图,比买Mac mini自建更安全、更省钱、更方便,是目前最成熟的“本地+云端”混合架构。
我差不多一年没上班了,但是前两天又把飞书装了回来——就为了使用Kimi Claw。
这是Kimi出的新产品,云端托管版的OpenClaw。有了它之后,我的AI操作系统最后一块拼图终于补上了。
打个比方,我之前介绍过的AI操作系统就好比是本土,必须保证安全、稳定。而Kimi Claw的云端虚拟机就好比是海外生产链,那些繁重的工作都交给外部处理。不管它怎么折腾、花多少时间,只要能把结果拿回来就行。
先说一下OpenClaw。它是第一款火遍全球的个人Agent系统,也是ChatGPT出现之后,第二款现象级的AI产品。它让很多人第一次感受到,AI在终端落地之后是什么样的。
虽说这只“龙虾”很火,但我之前一直没出视频讲它,因为我非常不认同为了跑这个而专门去买一台Mac mini的做法。这完全没逻辑啊!你想嘛:
从算力角度看,你会在Mac mini上跑大模型来驱动OpenClaw吗?不会啊。你买的是mini,又不是Studio!不还是通过API调用吗?
从数据角度看,你之所以另外买一台Mac mini,正是因为不敢在自己的主力机上部署,怕泄露隐私,也怕它把不该删的删了,所以才用一台新机子作为隔离。
那这么看下来,为什么不直接部署在云端呢?
之前确实有不少厂商出过云端托管的方案。但一般存在两个问题:
第一,配置太麻烦。我试过在Cloudflare上部署,真的太痛苦了,搞了一个小时还不行,只能放弃。
第二,模型性价比不够高。OpenClaw的Token消耗远比任何Chatbot都高。所以,一款既能打、又足够便宜的模型就成为必须。
看来看去,我最后选定这次新出的Kimi Claw。
说真的,我就喜欢这种一键部署的产品,真的太省事了,一分钟搞定:只需要到kimi.com/bot这个链接点一下按钮,然后它就会自动配置,包括算力和40G存储空间的分配。
如果你想在飞书里使用,可以像我这样,到飞书开放平台去创建一个应用,然后添加机器人的能力,把权限都开起来,添加接收消息的事件,把App ID和Secret告诉Kimi Claw,最后把应用发布,就搞定了。整个逻辑跟连接Discord差不多,很好理解。
如果你不想配置飞书,直接用Kimi APP也行。现在海外版App已经更新了,国内版还在审核中。在输入框的上方就能看到Kimi Claw的入口。
当你正式上手使用之后就会发现,Kimi Claw跟你之前用的Kimi很不一样。看起来还是对话、还是一问一答,但是这只龙虾好像更会自己找事儿干了。它会自主分析任务、找到解决办法,甚至还能在后台最多运行8个子代理、并行处理任务。
这一切都归功于Kimi前段时间推出的K2.5模型。这个模型专门为多Agent而生。我之前专门出了一期视频介绍过它的Agent集群功能。
到了OpenClaw这边,如果你是用国外那些模型的API的话,运行的子代理一多,很容易触发Too Many Requests错误,导致任务中断。而在Kimi Claw这边就没事,因为K2.5天生就是干这个的。
另外,K2.5的性价比非常高,特别适合跑多Agent系统。你用一段时间OpenClaw就会发现,Token消耗真的是指数级增长。所以长期使用的话,K2.5这种模型最适合。
Kimi Claw除了本身性能强大之外,还可以根据你的需求完全定制化。比如你想要添加某项能力的话,可以让它去Claw Hub里搜索、安装。
Claw Hub就是面向Agent的App Store。里边已经有5000多个技能了,从开发到办公都有。你不用自己动手,让Kimi Claw去做就是。比如我让它安装小红书的技能。装上之后,它就知道典型的小红书文案该怎么写。
这些都是基础用法,不多说了。我来分享一个进阶用法。
我在前边说的,把所有外部信息的获取交给Kimi Claw来做,指的就是让它定时去获取信息,比如每8小时搜集一次AI新闻。这些内容都保存在云端。如果想在本地进一步处理这些内容,还得手动复制粘贴下来,这就太麻烦了。
要解决这个问题,需要一个中转站去连通云端虚拟机和本地文件夹。这个时候,我想到了一个好办法:邮件。
首先,我让Kimi Claw安装轻量级的邮件发送工具。我把QQ邮箱的SMTP密码告诉它。这么做的目的是,当有新的内容之后,它可以自动发送邮件。
接着,我在Obsidian上安装接收邮件的插件。这个插件会提供一个特定的邮箱地址。一切发送到这个邮箱地址的邮件都会被自动保存到Obsidian里。
最后,把这个特定的邮箱地址告诉Kimi Claw,让它把定时任务的结果以邮件形式发送。你看,Obsidian里多了一条笔记,就是Kimi Claw搜集的AI新闻。
通过这种方法,你既可以继续享受云端虚拟机所带来的安全隔离,又可以把需要的数据自动同步到本地文件夹。这个就是我说让Kimi Claw作为AI操作系统补充的原因。
到这里,我的AI OS就形成了一个闭环:本地的OpenCode负责深度创作和知识管理,云端的Kimi Claw负责信息搜集和自动化,中间用邮件打通。内外分工,各司其职。
OpenClaw确实是非常重要的产品。考虑到安全隐私问题和使用成本,我推荐使用Kimi Claw这种云端托管的解决方案,使用K2.5来长期驱动。我相信这一定是性价比最高的做法。
目前Kimi Claw还是Beta版,首批开放给会员用户使用。对于普通用户来说,这个比买硬件然后再花算力的钱更划算。大家可以试试。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

