Claude

严肃生产,还得看Claude

Key Takeaway

  • Claude推出的Analysis tool(数据分析工具)能够帮助用户对数据表格进行分析和可视化呈现。
  • 该工具基于Claude强大的代码能力和Artifacts功能,能够处理CSV文件并进行数据可视化。
  • AI在数据分析领域的应用,将像AI编程一样,赋能更多非专业人士。
  • Claude的数据分析能力使其在“严肃生产”场景中具有显著优势,可应用于市场营销、销售、IT等领域。
  • 文章强调“严肃生产”是AI应用落地最有价值的场景。

Full Content

AI不只是要抢程序员的饭碗,现在连数据分析师也不放过。Claude前些天推出的Analysis tool特别好用。你手里如果有一份数据表格,想让AI帮你做些分析,并且可视化呈现,一定要试试这个功能。

目前这个分析工具还处于预览阶段,默认是没有打开的,就像最开始的Artifacts一样。所以需要咱们去Feature Preview选项里,把它勾选上,然后就开心使用啦。

对数据表格做分析,一直是很多人的刚需,但却是大模型的短板。像Claude之类的头部产品,虽说硬着头皮也能做,但它提供的结果是概括性的、比较宏观的,还做不到更加细致、精确的分析。这次新出的数据分析工具就补上了这个短板。它建立在两个基础上:

第一,代码能力。目前Claude的代码能力是全球公认最强的,没有之一。所以它可以直接使用JavaScript对用户上传的CSV文件进行读取、解析和重构,就像咱们人类数据分析师一样的处理方式。而且在处理的过程中如果遇到什么错误的话,它还会自己修复。

第二,Artifacts功能。对Claude以及所有Chatbot来说,Artifacts都是一个非常重要的创新。它在主对话窗口之外单开了一个专用窗口。所有根据用户请求而生成的内容都在专用窗口里显示。为了确保安全性,它还采用了类似沙盒的技术,创建了一个安全游乐场。

所以,Claude能在数据分析上取得惊艳的效果,全都来自于基础能力的遥遥领先。

哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。记得点一波关注。只要有一个视频你看进去了,就赚大了。如果想链接我,就来newtype社群。已经有600位小伙伴付费加入啦!

回到今天的主题:Claude Analysis tool。

之前我在社群里说过,AI的价值不只是降低成本、给老板一个压榨员工的理由,更重要的是带来了新的能力。AI编程的价值很多人已经享受到了。接下来,数据分析也会像编程一样,通过AI下放给更多人。从这一点来看,Claude真的是功德无量。

为了给大家演示新的数据分析功能,我下载了一份比特币的历史数据,包括价格、交易量等等。格式好像有点小问题,我没细看。反正直接拖进对话框,都让AI处理就好。

接到需求之后,Claude会先对数据进行处理,然后再启动Artifacts功能,通过代码创建一个可视化的展示。

大家之前可能只接触过用Excel做数据分析。但是Excel只能搞定一些简单的活儿。如果比较专业的话,就会用到Python,它的pandas、numpy都是非常流行的数据分析库,它俩各有所长。如果涉及到统计学的话,还有R语言。它的学习曲线比Python陡峭多了。当然啦,无论是哪一个,对咱们来说,想要掌握都不是一天两天的事儿。这就是AI的价值所在。

回到Claude这边。可以看到,它已经做完可视化呈现了,通过数据还原出价格走势图。不仅如此,它还主动做了一些初步总结,发现比特币波动性大,目前处于上升态势,而且价格处于历史高位区间。

大家注意看,在稍微停顿了一下之后,Claude还给出三个建议的问题。这个设计显然是为了引导普通用户继续往下分析。不然很多人看到这一大堆东西就懵逼了。那咱们就让AI继续创建一个互动式的价格走势图。

可能是这个功能还处于预览阶段的原因,会有一些报错。不过没关系,咱们让Claude自己修复就好。或者,如果有什么不满意的地方,也可以直接提。比如,我希望它尽可能把时间周期拉长。于是Claude就会返回去查看数据,然后调整代码,最终展示更长时间周期的分析。

Claude这些报错都是小问题。现阶段,我觉得有两个最需要改进的地方:一是Rate Limit,目前太低了,一下就用没了,希望官方能尽快调高一些。二是刚才提到的建议问题,问得太水了,起不到引导的作用。

通过刚才这段演示,大家可以看到,Claude的理解范围已经从之前的文字扩展到了数据。在文字方面,我之前做过对比,Claude的逻辑性显著强于ChatGPT。现在又把对数据的精确分析给加上了。这样一来,Claude就牢牢占据了严肃生产这个场景。

如果你做市场营销的,可以上传客户互动数据;如果你是做销售的,可以上传各个销售大区的业绩;如果你是搞IT的,可以上传服务器日志。这些Claude都能处理,都能帮到你。这个可比帮小白领写一段小红书文案,或者想一句品牌Slogan要值钱多了。

我认为,严肃生产一定是AI应用落地最有价值的场景,也是现在大部分AI厂商都忽视的。

OK,以上就是本期内容。想链接我,就来newtype社群。那咱们下期见!

让AI自动生成工作流

Key Takeaway

  • 作者分享了如何利用AI(特别是Claude)自动生成n8n工作流的方法。
  • n8n是一个开源的工作流程自动化工具,具有高度灵活性和广泛集成,并支持JSON格式的工作流导入导出。
  • n8n的MCP Trigger功能可以将工作流转化为可被外部系统调用的服务,实现“工作流即服务”。
  • 通过配置n8n MCP,Claude可以生成JSON格式的工作流,实现AI生成、AI使用的闭环。
  • 即使是复杂的工作流,如果出现错误,也可以通过将错误信息反馈给Claude进行修改。

Full Content

不会搭建工作流也没有关系,完全可以让AI自动生成。

你看这是我让Claude帮我搭建n8n的工作流。它会直接生成JSON文件。完成之后,我把文件里的代码复制,回到空白的n8n工作流里粘贴。最后把一些节点配置一下,这个工作流就可以使用了。

国内的小伙伴可能没怎么听过n8n。它是一个开源的工作流程自动化工具。n8n的灵活度非常高,而且集成非常广泛,从常见的Slack到各种数据库、CRM,它几乎是无所不包,所以在国外非常受欢迎。

对我来说,如果要用工作流的话,我首选就是n8n。除了刚才说的灵活性和高度集成之外,还有两个原因:

第一,n8n支持JSON格式的导入和导出。也就是说,整个工作流,包括节点、配置和连接,都可以被导出为一个JSON文件。同样,你也可以直接把将一个JSON文件导入进去,从而完整地复现一个工作流。

第二,n8n支持把工作流转化成MCP服务器。它在三个月前推出MCP Trigger功能。你只需要在开头添加一个MCP Server Trigger节点,工作流就变成了一个可以被外部系统通过MCP调用的服务,也就是:工作流即服务。

这两点结合在一起,就是一套AI“自产自销”的用法。就像我开头演示的那样,Claude可以直接生成JSON文件。把JSON文件导入,一个工作流就有了。然后,再把这个工作流转成MCP服务器输出给AI客户端使用。

AI生成,AI使用。这不就闭环了吗?

哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。

回到今天的主题:让AI自动生成工作流。

要实现让Claude自动生成n8n工作流,需要安装n8n MCP。你可以把它理解为就是一个超大型n8n攻略。给Claude配上之后,它具备所有背景知识了。

要配置这个MCP非常简单,有手就行。

第一步,运行npx n8n-mcp这行命令。

第二步,在Claude的配置文件里,把几行贴进去。其中,链接和API Key替换成你自己的。

第三步,到Claude里创建一个项目。在Project Instructions里边,把这一大坨都复制粘贴进去。它的作用是,告诉Claude该怎么搭建工作流。

这三步完成之后,我们就可以开始生成了。为了演示,我直接从官方的Template里边挑了一个简单的工作流:

用户输入YouTube链接;通过Apify的服务获取Transcript;最后调用一个大模型对Transcript做总结。

回到Claude这边,把需求贴进去。Claude会先分析,并且提出问题,让咱们补充。等它获得所有信息之后,就会把项目的架构搭建好,然后开始生成JSON文档。

基本上简单的工作流一次就能搞定。复杂的工作流,如果出现报错的话,就把报错贴回来,让Claude修改。

等Claude生成和验证完毕之后,可以点击右上角的Copy按钮。回到n8n,直接粘贴,一个工作流就导入完成了。

而我们需要做的,就是把里边某些节点的配置完善了。比如Apify和OpenAI的节点,需要配置Credential才能运行。

你看,整个过程就是这么简单、直接。这就跟AI编程一样,只有你的需求清晰,Claude都可以搞定。我这边用的是Sonnet模型。大家还可以试试Opus模型,会更给力。

OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!

让Claude假装思考:Thinking Claude

Key Takeaway

  • Thinking-Claude通过提示词让AI“假装思考”,展示思考过程,提升回答质量。
  • 大模型的输出是一次性完成的,其“思考”是表演而非真正的反馈循环。
  • 尽管是“表演”,但这种方式能强制模型产出更有逻辑、更全面的回答,具有实用价值。
  • 文章通过苹果M芯片统一桌面端和移动端SoC的例子,展示了Thinking-Claude如何提供有价值的推演过程。
  • 该项目通过浏览器插件和提示词设置实现,操作简单,值得尝试。

Full Content

最近有一个17岁的少年一夜爆火,名字叫涂津豪。他通过一套提示词,指导Claude如何进行更深入、更有条理的思考,希望最终能获得更高质量的回答。

不仅如此,涂津豪还做了一个浏览器插件,目的是为了提升可信度。因为装上之后,我们就能看到AI具体的思考过程。

在国内自媒体的带动下,不到24小时,小涂同学被捧上神座。甚至有人拿这个嘲讽OpenAI——既然靠提示词就能实现“慢思考”,那你们费了半天劲搞的o1模型,究竟是在搞什么?

说实话,刚看到这个项目的时候,我也挺吃惊的。因为根据我的经验,提示词工程并没有那么大的能耐,否则我们之前就没必要搞Multi-Agent去讨论和纠错了。但是,开始使用之后,似乎Claude又确实是先思考,然后才给出答案。

那么,问题出在哪儿?

其实,Thinking-Claude玩了一个“障眼法”——它让AI假装思考、表演思考。我们看到的思考过程,都是已经生成的,都是剧本。

哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600位小伙伴付费加入啦!

回到今天的主题:Thinking-Claude。

我之所以说Thinking-Claude所带来的思考是假的、是一种表演,原因在于,大模型的输出都是一次性完成的。它被训练成了连续生成的模式,根据前一个token来预测下一个token。即使你强迫它在半途中暂停生成token,它也无法对已经生成的token做判断。因为它天生就没有这个机制,那又怎么可能靠你的几句提示词就开窍呢?

打个比方,大模型就像一个水龙头,一旦打开就会滔滔不绝地按照预设的路径流动。而这种机制是与思考相冲突的。

大家可以回想一下我们是怎么写作的。在整个写作过程中,我们会停下来,会回头修改,甚至还会推倒重来。这个就是在思考。这个就是思考的样子——它不是单线程,而是一个反馈循环的机制。

大模型没有这个机制,它只能一口气把答案全告诉你。要改进的话,得等下一轮对话。那现在它又被强制要求去思考,该怎么办呢?

它只能演给你看咯。就跟小朋友一样,表演给大人看。

大模型把自己的产出分成了两部分:一部分用来充当答案,一部分用来充当思考。

这个是技术、架构的局限性,光靠提示词是突破不了的。所以千万别觉得OpenAI是冤大头,白花那么多钱训练个o1出来,还比不过一个17岁的中学生。这些自媒体也太民间科学了。

但是,虽然思考是假的,虽然是在表演,我还是继续使用,并且我也推荐大家使用。因为,表演有表演的价值。

大家可以这么理解。在没有安装这个项目之前,Claude都是在即兴发挥。好在它底子好、演技强,不管怎么演都不太差。只是可能有的时候台词差点意思,毕竟是现喷的,没打磨过。

使用Thinking-Claude就好比是给Claude塞了个剧本,强制要求它按照本子演。所以,提升肯定是有的。只是有时候提升多一些,有时候提升少一些。

这就是我说“表演有表演的价值”的原因。在一个表演这个框架的约束下,强迫模型产出更有逻辑、更加全面的回答,何乐而不为呢?

而且,我其实挺喜欢它所表演的思考的,经常会给我启发,很有价值。

举个例子。我问Claude:为什么苹果需要通过M芯片统一桌面端和移动端设备的SoC?

如果直接看答案的话,是还不错啦,但是好像少了点什么。我们再来看它表演的思考。

在一开始,Claude认为这是一个技术问题。因为x86和ARM是两套完全不同的指令集架构,开发者需要维护两套代码,这就增加了大量的重复工作和成本。

我这边多科普两句。用大白话来说就是,要想让机器理解你的代码,你得做翻译,把你的代码翻译成机器能看得懂的语言。这个过程叫做“编译”,把源代码编译成特定架构的机器码。

x86和ARM对应两套完全不同的机器语言。这就意味着,开发者得做两次翻译,然后还得检查有没有问题,以及做必要的优化——这个真的是非常重的负担。所以,苹果要统一架构。

而且,一旦都改用自己的芯片之后,就不必跟英特尔商量着来了。苹果想怎么搞就怎么搞,都是自己的节奏。这种战略上的自由度是很诱人的。

紧接着,Claude的思考从战略角度延伸到了商业角度和用户体验角度。采用统一架构意味着处理器成本更低,利润空间提升,商业上有好处。并且iOS应用可以直接跑在Mac上,用户体验也提升。

整体来看,统一架构不只是一个技术选择,更是生态层面的战略决策。更加紧密、统一的生态系统,能让苹果在市场竞争和技术创新方面获得更大主导权。这就是苹果这种级别的公司会去做、也应该做的事儿。

你发现没有,Claude所表演的思考,其实给我们提供了一个推演的过程。我觉得这个价值不会比正式答案更低。

所以,大家能安装的都装上试试。过程很简单,就两个部分,有手就行。

第一,安装浏览器插件。

来到Thinking- Claude的GitHub页面,把整个项目的压缩包下载下来,并且解压缩。来到浏览器的插件管理页面,打开开发者模式,然后加载项目里的extention文件夹。

第二,设置提示词。

同样来到GitHub页面,进入这个文件,把里边所有内容都复制下来。接着来到Claude,新建或者打开一个Project。在右边可以添加提示词。把刚才复制的内容全部粘贴进去就搞定了。

可能是感受到了国内自媒体瞎吹捧的危险,在后来的更新中,涂津豪同学特意加了一段话,强调了Claude的能力都是Pre-designed,没法做到大幅提升。而这个项目只是为了向我们展示模型的“内心独白”。

OK,以上就是本期内容。想聊AI,就来我们newtype社群。那咱们下期见!

限制大模型的,是输出长度

Key Takeaway

  • 大模型厂商普遍关注上下文长度,但忽略了输出长度的限制。
  • 目前大模型的输出长度普遍在2-3千字,主要原因是缺乏长文本训练素材。
  • 智谱通过增加长输出数据训练,显著提升了模型的输出长度。
  • 文章呼吁厂商应关注并提升模型的输出长度,以满足日常需求。

Full Content

我一直很不理解,怎么所有大模型厂商都在卷上下文长度,但就是没人关注输出长度。

现在要是发个新版本的模型,没个128K的上下文窗口,你都不好意思跟人打招呼。但是,模型的输出长度,也就是一次最多能回复多少字,好像有点停滞不前——两三千字就顶天了。

我拿ChatGPT和Claude做了个测试。我的需求是:

请帮我撰写一个主题为「黑神话·悟空」玄幻小说。小说以孙悟空为核心,讲述一个天庭腐败不堪、祸害三界,孙悟空与妖怪兄弟对抗天庭、拯救苍生的玄幻故事,不少于10000字。

ChatGPT的表现让我非常不满。

丫一上来就摆烂,说什么写10000字太费劲,只能帮我写一部分内容,以及给个大框架,剩下的还是得我自己来。

现在的AI都这么像打工人了吗?

当我要求它继续往下写的时候,ChatGPT就开始敷衍了。它象征性地写了几章,然后就马上宣布整个故事完结了。

真的,我都想骂人了…

相比之下,Claude就好太多了,大家还是订阅Claude吧。

虽然没法一次性输出10000字,但Claude好歹给出了解决办法:分章节输出,一个章节两三千字;用户可以随时给反馈意见。

这个才是AI该有的态度!

我让Claude写了几章。不得不说,它文笔还是不错的,写得有模有样。如果给它具体指导的话,写点小说发表肯定没问题。

这两个例子很有代表性。今天的模型产品,输出长度大概就是2千字。

为什么会这样?

智谱在论文里解释了。核心原因就是,缺少长文本的训练素材。我们给大模型训练用的数据集,很少有超过2千字的材料。所以,它都没见过、没被训练过,那自然写不出来。

为了解决这个问题,智谱的人特意准备了一份长输出的数据,里边的数据长度从2K到32K都有。把它跟通用数据结合,形成完整的数据集,给到两款支持128K上下文窗口的模型做微调,一个是GLM-4-9B,一个是Llama-3.1-8B。效果立竿见影。

我在Google Colab上做了测试,用A100 GPU分别跑两个模型。还是刚才那个写玄幻小说的任务。

GLM-4-9B完成得比较好。我把它写贴到Ulysses里给大家看看。一共1.1万字,分成13章,从世界背景介绍开始,一直到最终大决战、打败天帝。

Llama-3.1-8B的字数没有达标,只有8千多字。不过即使这样,也大大超出平均水平的两三千字。

说实话,当AI把小说写出来的时候,我还是挺震惊、挺兴奋的——毕竟第一次看到输出这么长的内容。之前的典型情况是,我让AI帮我翻译一个论文,或者修改一篇稿子,结果返回了半截就停下来了,这个就非常不爽、不方便了。

如果说,32K的上下文长度算是够用级别的话,那么至少5千字的输出长度才能满足日常需求。

接下来,我会试着用智谱的训练集去多微调几个模型。我也真心希望,国内的厂商别都在那边无脑地追逐超长上下文窗口,把这个当成一个营销噱头,搞得跟手机厂商跑分一样。是时候把输出长度提上来了。

OK,以上就是本期内容。想找我的话,来newtype社群。咱们下期见!

我做了个Obsidian MCP

Key Takeaway

  • 作者开发了一个Obsidian MCP,提供搜索、读取、创建、移动笔记和管理文件夹等功能。
  • 该MCP支持多种安装方式,包括Claude桌面版的DXT方式、远程NPM包安装和本地安装。
  • 使用该MCP可以摆脱Obsidian内置AI插件的限制,通过熟悉的AI客户端(如Claude、ChatGPT)直接访问和管理笔记。
  • 结合Prompt House等工具,可以实现更智能的笔记管理和AI调用。
  • 作者强调了上下文对于AI创造价值的重要性,认为机会在于为AI提供充分恰当的上下文。

Full Content

作为Obsidian重度用户,我给这款软件做了个MCP。大概率啊,它是目前市面上最全面的Obsidian MCP服务器。

在功能方面,它可以搜索仓库,可以读取、创建、移动笔记,还可以管理里边的文件夹。

在安装方式方面,它支持三种:

如果你用的是Claude桌面版,那么我强烈建议你用DXT的方式。这是Anthropic最新推出的方法。你只需要把DXT文件下载到本地,双击它,就能完成安装。

或者,你可以使用远程安装。我已经把NPM包发布了。所以你只需要在配置文件里把这些填上就OK。

如果你动手能力强,也可以采用本地安装。你可以使用npm install把整个包下载到本地,也可以整个仓库下载下来再安装,或者用Docker也可以。

那为什么需要这个MCP?

因为有了它,你就不需要用Obsidian里的AI插件了——说实话,那些插件做得总是差点意思。你可以继续使用你熟悉的、世界上最好的AI客户端,比如Claude、ChatGPT等等,然后把客户端和笔记仓库对接,让AI能够访问你的所有笔记,帮你管理那些笔记。

更进一步,如果你能搭配使用我开发的Prompt House,在提示词里设置好检索规则等等。当遇到特定情况,AI先使用Prompt House MCP获取特定的提示词,然后自动去你的仓库里查找特定的笔记,一环套一环,不需要你下复杂的命令。

目前我只开发出了Obsidian MCP的基础功能。所以它在现阶段跟File System MCP有很多重叠的地方。因为笔记仓库本质上就是一个本地文件夹,笔记本质上就是一个Markdown文件。下一步,我会开发进阶功能,比如自动添加反向链接功能等等。大家可以期待一下。

那么,这个MCP该如何安装呢?我来演示一下前三种安装方法,因为它们是最简单的,适合所有人。

在开始之前,你需要做两个准备工作。

第一,你得知道你笔记仓库的地址。比如我在桌面上创建了一个用于演示的仓库,那么它的地址就是这一串。

第二,你需要安装Local REST API这个插件。在Obsidian社区插件里搜一下就有。然后Install、Enable。在设置里边,把非加密这个选项打开,因为我们后边要使用这个27123的端口。这个 API Key之后也会用到。

先来看DXT的安装方式。

来到GitHub页面,下载DXT文件。你可以把它理解为就是一个全部都打包好的安装文件。双击之后,它会帮你自动打开Claude桌面版。然后,点击Intall,把刚才准备好的仓库地址和API Key填进去,把这个MCP服务器启动起来,就全部搞定了。

接着是NPM包的安装方式。

我这边用的客户端是Cherry Studio。新建一个MCP服务器,类型选stdio,命令填npx,参数填@huangyihe/obsidian-mcp——这是我发布的npm包的名字,环境变量这么填,然后保存就搞定了。

最后是本地安装的方法。

先在终端里运行这一行命令。接着打开客户端,我这边用的是ChatWise。照样新建一个MCP服务器,类型选stdio,命令填obsidian-mcp,环境变量还是这两行。最后点击“查看工具”,能刷出这些工具就说明安装成功了。

刚才这三种方法,总有一个适合你。至于效果,我到Claude里给你看看。

我问Claude:Obsidian都有哪些笔记?这个是看它的检索能力。你看,它调用工具、很快就列出来了。

再来个难一点的:帮我在笔记仓库里创建一个名为123的文件夹,把Welcome笔记移动到里边。然后在123文件夹内创建一个名为MCP的笔记,内容是关于模型上下文协议的介绍。

你看,Claude 4的工具调用能力确实是目前最强的,轻松且准确地完成了任务。

说实话,这么多客户端,目前我用得最舒服的,还是Claude桌面版。尤其是MCP的调用方面,它的体验和效果是最好的。

最后,One more thing:我为什么要开发这个MCP,以及之前做的Prompt House。

就像我在社群内说的:Context matters!

模型的能力已经足够强了。接下来,要让模型创造价值,需要给它充分的、恰当的上下文。对于我们这些不是做模型研发的开发者、创业者来说,机会就藏在上下文里边。

OK,以上就是本期内容。想交流AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!