工作流
Key Takeaway
- Dify新增“双向MCP”功能,允许用户在Dify中添加MCP服务器,并可将Dify工作流转换为MCP服务器对外输出。
- 该功能解决了工作流“孤岛”问题,使其能融入日常通用场景,极大扩展了Dify的工具范围。
- 作者重新关注Dify,认为工作流应原子化,作为组件强化特定场景效果。
- 文章通过Deep Research工作流的演示,展示了Dify与MCP结合后,AI客户端可调用特定MCP服务器解决特定需求,提升效率。
- Dify的MCP功能与提示词结合,可实现基于MCP工具和Prompt的工作流自动化,提升个人生产力。
Full Content
Dify最近上了个新功能:双向MCP。这是个非常重要的功能。因为它让原本只针对特定场景的工作流可以融合到我们日常的、通用的使用场景中。
什么叫“双向MCP”?
一个方向是进来,也就是你可以在Dify里边添加现成的MCP服务器。这个好处是,可以极大扩展Dify的工具范围,把越来越丰富的MCP服务器纳入进来。
另一个方向是出去,也就是你可以把自己创建的工作流转换成MCP服务器,对外输出。比如我用AI客户端,把工作流MCP添加进去。平时在对话中就可以直接调用。
这样一来,你搭建了半天的工作流不会被限制在某些使用场景和情况下使用,不再是孤岛。这个是非常大的进步。
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。
回到今天的主题:Dify的MCP功能。
我记得去年就出过视频介绍Dify。但是从那之后,我就不再关注这些工作流平台了。两个原因:
第一,上手难度高。这些工作流看起来好像在画布上随便搭一搭就行,但其实难度挺高的。既要懂技术,还得懂业务。一家公司能有几个这样水平的人?
第二,适用场景窄。每一条工作流都是针对某些场景、解决某些特定问题而存在的。在早期很有用,因为大模型能力不强,所以把人类的经验编排成工作流,去指导模型。但到了今天,你再把固定的工作流硬塞给模型,就有点限制它了。
那我为什么现在会重新捡起Dify,会看中这次的更新?
因为工作流不是变大了,而是变小了。它可以变成一个一个原子化的组件,融入到我的工作流里边来,去强化特定场景下的效果。这个就是MCP服务器应该有的价值。
我给你们演示一下就明白了。
这个是我在Dify里找到的现成工作流,Deep Research。我把里边的模型改成GPT-4.1,然后发布。因为发布之后,才能把MCP服务器功能打开。
点击左边这个按钮,在左下方把这个选项打开,就可以把这个工作流转变成MCP服务器。这一行就是服务器地址。因为我是在本地运行的,所以地址开头是localhost。
打开AI客户端,我这边用的是免费的Cherry Studio。新建一个MCP。连接方式选HTTP。然后把服务器地址填进去就搞定了。
我们来做一个对比。
我先使用模型内置的搜索工具,搜一个问题:什么是Context Engineering?这个是它的回答。
然后我开个新窗口。这次使用刚才接入的Deep Research MCP服务器。还是同样的问题,什么是上下文工程。
稍等几分钟,模型给出了回答。对比两次的输出,可以明显看到,使用了外挂MCP服务器的效果要好得多。
你看,这个就是我刚才说的,到了特定场景、特定需求的时候,你调用特定的MCP服务器去满足、去解决。你不需要换一个工具,还是用原来的AI客户端,这个真的很方便。
我演示用Deep Research是为了让大家好理解。其实工作流是特别定制化的。接下来,我会针对我自己的需求搭好多个工作流,然后统统转化成MCP服务器。
所以,就像我在社群里说的,现在有两套系统可以满足我们的定制化需求:一是提示词,二是基于工作流的MCP服务器。并且,这两套系统还可以用我做的产品——Prompt House进行统一调度。
这样配置下来,我相信,我的个人生产力又会有一次大的提升。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!
Key Takeaway
- Agent平台分为生态流派(如钉钉)和工具流程流派(如dify),dify通过提供知识库和工具来创建Multi-Agent System。
- 学习Agent应从dify入手,因为它将代码逻辑以直观的流程图形式呈现,便于理解和实践。
- dify的工作流设计强调逻辑和流程的整体性,大模型仅在需要时介入,而非主导一切。
- 工作流可以根据用户输入进行条件判断和分支处理,实现更精细化的任务执行。
- dify的工作流示例(如文本总结)展示了如何结合知识库和Prompt来提升大模型的专业能力。
- 通过dify实践Agent,有助于建立对Multi-Agent System的基本认知,并为学习其他Agent框架打下基础。
Full Content
Agent平台有两大流派:
一是生态。比如钉钉这种。
在钉钉上边,已经承载了大量企业的部分业务,沉淀了很多内部数据。这时候你在原有生态基础上添加Agent,让企业能调用大模型的能力,并且围绕这个能力去构建智能化的工作流,是非常顺理成章的事儿。
二是工具流程。比如dify这种。
dify提供了创建Multi-Agent System需要的两个基础:
知识库和工具。其中,工具你可以用现成的,也可以自己创建。在这两个基础上,你再去搭建Chatbot、Agent,或者一大套工作流。
很多小伙伴看了我前几期视频,跑来私信问我该怎么学习Agent。我的建议是,通过擅长工具和流程的dify来上手。两个原因:
第一,之前在知识星球newtype里反复讲的——Agent最核心的,不是技术,而是工作流,是你想让它们具体怎么做。
dify在这方面做得特别直观——它把代码的逻辑,用流程的方式,在画板上呈现出来。你一用就明白。我待会儿会演示。
第二,也是我之前总强调的,Learning by Doing,边做边学。
对咱们来说,AI不是一个理论问题,而是一个实操问题。而dify特别适合拿来拆卸和组装。你就把它当作玩具、当作积木。当你把一个Workflow跑通了,不仅能学到点东西,而且还挺有成就感的。
那么,具体该怎么上手好呢?很简单:
先看看人家是怎么做的。dify官方提供了好多现成的工作流,你随便挑一个感兴趣的,拆开研究研究。然后再自己亲自动手,搭建一个简单的试试。
我带大家过一遍官方提供的工作流Sample,这个叫“文本总结工作流”。
一般来说,一套工作流是以用户的输入作为起点的。在这个文本总结工作流里,它要求用户输入需要总结的文本,并且选择总结之后是个概述,还是技术摘要:
如果只是概述的话,那很简单,直接让大模型搞就好;如果是技术摘要的话,就会涉及到很多专业的概念和表述,这就需要用到知识库,毕竟大模型的预训练资料中不包含这些Domain Knowledge。
第一步让用户二选一,那么在第二步,就需要根据用户的选择,做一个条件判断,用到if、else——这个对有编程经验的小伙伴来说,应该非常亲切。
因为有了条件判断,所以在第三步出现分叉,就像前边说的:
如果用户要的东西会涉及到专业内容,那么就去知识库里检索一下。然后把用户要总结的文本,以及从知识库里找到的相关内容一起给到GPT-3.5。
如果用户单纯只是要一个文本的概述,那就直接把需要总结的文本给到GPT-3.5,省掉知识库检索的步骤,速度会快一些。
当分叉的第四步完成之后,第五步就是把两个分支进行合并。不管是哪种情况,反正把结果拿过来,给到第六步,套进一个模板,最后全部完成。
这就是一个典型的工作流。我之所以拿出来介绍,是希望大家能理解人家的思路:
第一,大模型并不是全部,而是在一些需要它发挥作用的环节才出手。最重要的还是逻辑、流程,是一个整体性的东西,需要你有全局观。
就像刚才那个分叉,你如果在一开始没有特意让用户帮你做一个选择,以及后边不加条件判断环节的话,那你只能不管三七二十一都去知识库里做检索,这样速度会慢很多。
第二,如果涉及到知识库的话,需要给大模型提供两个东西:知识库里检索到的信息,和最初用户的需求。这一步跟RAG里的流程是一样的。
这两个输入,可以在大模型的Prompt里交代清楚。你愿意的话,可以在这边把你期望的格式也告诉大模型,其实也就是CrewAI里的expected output。
除了我刚演示的官方Sample,其它的也建议大家看看,就知道一般都有哪些玩法了。举个例子:
如果需要根据用户的输入来判断后边怎么执行的话,除了刚才那个if、else的条件判断,还可以用“问题分类条件”——根据不同的内容,去对应的知识库里找参考资料,然后再给大模型回答。
当你把这些现成的工作流都吃透了,就可以自己上手组装一个了。一旦跑通了,你对Multi-Agent System的基本认知就有了。
假如你之后学了某个Agent框架(比如AutoGen)就会发现,逻辑都是一样的。而有了在dify上建立起来的理解,你再用Agent框架应该会顺手得多。
OK,以上就是本期内容。有什么想聊的,来知识星球newtype找我,我都在。咱们下期见!
Key Takeaway
- Prompt House是一款用于提示词管理和调用的工具,通过MCP协议实现模型自动获取和使用提示词,从而串联组成工作流。
- 作者通过Mac版Prompt House演示了如何在一个提示词中嵌套多个MCP工具和提示词,实现复杂任务的自动化。
- Prompt House的核心价值在于将MCP工具和提示词结合,形成基于Workflow的自动化能力。
- Mac版Prompt House相比网页版具有数据本地存储、更强大的AI润色功能(支持本地模型或自定义API Key)和更快的速度。
- 文章强调了AI时代产品应“水涨船高”,通过产品传递方法论,并持续开发新功能以满足用户需求。
Full Content
我终于把Mac版的Prompt House做出来了。
搞这个Mac版可比开发网页版麻烦多了。花了我小一周的时间,两百美元成本,用目前最先进的编程模型Claude Opus 4怼出来的。
我老婆说我鬓角多了两根白头发。我说,白头发OK,没秃就行。
过程中的困难我在这边就不多说了。之前在社群内发过好长的一段总结,大家可以自己去看。那么,我之所以废了这么大力气搞出网页版和Mac版,是因为我有一套提示词进阶用法,但是市面上没有这样的工具能实现。那我就自己做咯。
我给你们演示一下,你们就明白它的价值了。
我在Prompt House里事先准备了两份提示词:
1、深度研究:明确要求使用两个MCP工具——Sequential Thinking和Tavily进行至少三轮的轮拆解、分析、搜集。当完成后,使用另一份提示词“总结报告”完成最终输出。
2、总结报告:要求逻辑清晰、结构合理、表达简洁等,并且每个小结都必须有明确结论和支撑。
来到客户端(我这边用的是ChatWise),我@prompthouse,要求进行深度研究。
于是,模型知道两点:第一,要使用Prompt House MCP;第二,要获取关于深度研究的提示词。
所以,模型先调用第一个工具获取Prompt House上所有提示词的列表,从中找到“深度研究”提示词,然后获取这份提示词的完整内容。
因为在这份提示词里,我明确要求组合使用两个MCP工具进行多轮研究,所以模型开始调用Sequential Thinking和Tavily,一个分析、一个搜集,把需要的资料收集齐。
当资料都搞定之后,就该输出最终的报告了。
因为我在“深度研究”这份提示词的结尾明确要求了,如果要输出报告,就必须使用另外一份“总结报告”提示词。于是,模型再次调用Prompt House MCP,拿到“总结报告”提示词,根据里边的详细要求,完成整份报告的输出。
你看,在Prompt House的串联下,模型自动跑完了一整个工作流,里边涉及到多个MCP工具的调用,还涉及到多份提示词。
今天有那么多的MCP工具。那么,什么时候用什么工具?工具之间如何组合使用?这些都可以在一份提示词里交代清楚。
你也不需要在一份提示词里把所有工作都交代完成。完全可以拆成小的子任务,放在多份提示词里边。然后根据需要,灵活挑选几份、组合使用。
有了Prompt House作为调度枢纽,我们就有了一个基于MCP tools + Prompts的Workflow,足以自动化完成一些复杂任务。
我之前在社群内说过,所有工具、所有SaaS的核心,是方法论。通过Prompt House这个产品,我把我关于提示词的方法论充分表达,分享给大家。
模型调用工具的能力越强、上下文长度越大,这套方法论和工具能实现的价值就越大。我坚信,AI时代,一定要做水涨船高的产品。
如果你get到了,欢迎登录prompthouse.app这个网站使用。网页版免费。
如果你想长期使用,建议购买Mac版。点击网页左下角的Purchase就可以购买,9.98美元。我想了一下,还是不搞订阅制了。采用买断制,大家都舒服。
为什么要花这9.98美元呢?使用Mac版有这三个好处:
第一,数据全都存在本地,你不用担心隐私的问题。
第二,“AI润色”功能更强大。网页版用的是我的API Key。为了节省成本,我选择GPT-4o mini。性能差一些,但是白菜价。
到了Mac版这边,大家有两个选择:可以使用Ollama调用开源模型。或者,用自己的API Key,选择更好的模型,比如GPT-4.1。
“AI润色”功能不仅可以帮你润色提示词内容,还可以生成标题和标签。这样你就不用花心思去想这些了。对模型来说,准确的标题、丰富的标签能显著提升它的筛选效率和准确率。
第三,速度更快,体验更好。毕竟是一款软件,用起来肯定比网页顺畅。而且MCP服务器是在本地,所以连接速度也更快。
目前功能都是Prompt House的MVP功能。在此基础上,从下周开始,我还有好几个功能会陆续开发。比如,提示词的推荐功能。我会持续搜集好用的提示词,通过产品推送给用户。用户点个收藏就能保存进自己的提示词仓库里。
Key Takeaway
- 作者分享了如何利用AI(特别是Claude)自动生成n8n工作流的方法。
- n8n是一个开源的工作流程自动化工具,具有高度灵活性和广泛集成,并支持JSON格式的工作流导入导出。
- n8n的MCP Trigger功能可以将工作流转化为可被外部系统调用的服务,实现“工作流即服务”。
- 通过配置n8n MCP,Claude可以生成JSON格式的工作流,实现AI生成、AI使用的闭环。
- 即使是复杂的工作流,如果出现错误,也可以通过将错误信息反馈给Claude进行修改。
Full Content
不会搭建工作流也没有关系,完全可以让AI自动生成。
你看这是我让Claude帮我搭建n8n的工作流。它会直接生成JSON文件。完成之后,我把文件里的代码复制,回到空白的n8n工作流里粘贴。最后把一些节点配置一下,这个工作流就可以使用了。
国内的小伙伴可能没怎么听过n8n。它是一个开源的工作流程自动化工具。n8n的灵活度非常高,而且集成非常广泛,从常见的Slack到各种数据库、CRM,它几乎是无所不包,所以在国外非常受欢迎。
对我来说,如果要用工作流的话,我首选就是n8n。除了刚才说的灵活性和高度集成之外,还有两个原因:
第一,n8n支持JSON格式的导入和导出。也就是说,整个工作流,包括节点、配置和连接,都可以被导出为一个JSON文件。同样,你也可以直接把将一个JSON文件导入进去,从而完整地复现一个工作流。
第二,n8n支持把工作流转化成MCP服务器。它在三个月前推出MCP Trigger功能。你只需要在开头添加一个MCP Server Trigger节点,工作流就变成了一个可以被外部系统通过MCP调用的服务,也就是:工作流即服务。
这两点结合在一起,就是一套AI“自产自销”的用法。就像我开头演示的那样,Claude可以直接生成JSON文件。把JSON文件导入,一个工作流就有了。然后,再把这个工作流转成MCP服务器输出给AI客户端使用。
AI生成,AI使用。这不就闭环了吗?
哈喽各位好,欢迎回到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西远比教程更值钱。记得点一波关注。如果想链接我,就来我们newtype社群。这个社群已经运营500天,有超过1500位小伙伴付费加入啦。
回到今天的主题:让AI自动生成工作流。
要实现让Claude自动生成n8n工作流,需要安装n8n MCP。你可以把它理解为就是一个超大型n8n攻略。给Claude配上之后,它具备所有背景知识了。
要配置这个MCP非常简单,有手就行。
第一步,运行npx n8n-mcp这行命令。
第二步,在Claude的配置文件里,把几行贴进去。其中,链接和API Key替换成你自己的。
第三步,到Claude里创建一个项目。在Project Instructions里边,把这一大坨都复制粘贴进去。它的作用是,告诉Claude该怎么搭建工作流。
这三步完成之后,我们就可以开始生成了。为了演示,我直接从官方的Template里边挑了一个简单的工作流:
用户输入YouTube链接;通过Apify的服务获取Transcript;最后调用一个大模型对Transcript做总结。
回到Claude这边,把需求贴进去。Claude会先分析,并且提出问题,让咱们补充。等它获得所有信息之后,就会把项目的架构搭建好,然后开始生成JSON文档。
基本上简单的工作流一次就能搞定。复杂的工作流,如果出现报错的话,就把报错贴回来,让Claude修改。
等Claude生成和验证完毕之后,可以点击右上角的Copy按钮。回到n8n,直接粘贴,一个工作流就导入完成了。
而我们需要做的,就是把里边某些节点的配置完善了。比如Apify和OpenAI的节点,需要配置Credential才能运行。
你看,整个过程就是这么简单、直接。这就跟AI编程一样,只有你的需求清晰,Claude都可以搞定。我这边用的是Sonnet模型。大家还可以试试Opus模型,会更给力。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!