为什么我们应该选择Dify工作流
为什么我们应该选择Dify工作流
核心观点
- Dify 是为了支持普通用户与企业用户而设计的,即支持简单的工作流搭建,也支持企业级的部署,工作流API对接等需求;
- Dify 的工作流市场提供了大量的模板可以应用和参考;
- Dify 的包含了非常丰富的插件,包含官方插件、第三方插件、甚至用户可以自己开发插件;
- Dify 提供了简单易用的工作流节点,同时在节点级别支持脚本(Python/JS) 脚本编写;
- Dify 的工作流可以直接通过API接口对接,企业应用友好。
方便部署
Dify 是开源项目,通过Github下载相应的Release版本,或者是直接通过克隆下载后切换到tag分支即可。
通过 Docker compose 可以一键运行。在Linux服务器中可以非常方便的启动,对于PC端用户,可以直接
使用 Docker desktop 支持启动即可。
当然可以通过 .env 的设置,来进行线上项目的配置。
工作流丰富
Dify提供了两类工作流的制作方式,以及常用的工作流模板。支持 工作流、ChatFlow 两种不同的类型。
- 工作流:直接进行功能的搭建,不限制任何场景,可控性最强;
- ChatFlow:聊天对话,包含历史记忆,能够定义初始对话场景和提示词,支持多轮对话,主要以大模型推理为主;
同时 Dify 还有新手模板,包含“聊天助手”,“Agent”,“文本生成” 这三种快速启动模板。
工作流支持导出和导入,导出的工作流 yaml 文件可以方便的进行分享,也可以通过拖拽等方式,一键导入。
节点与插件
Dify 与其余的工作流平台不同点是可以方便的接入各种插件,尤其现在的大模型非常多,使用Dify接入不同的大模型非常方便,
对于我们而言,最重要的大模型插件是 Ollama 插件,这样我们就可以使用免费的大模型来进行前期的验证与测试。
而不需要去进行购买Token或者是注册第三方的开发者账号。这一点充分的体现了开源软件的开放性。
知识库检索
Dify支持知识库管理与检索,同样支持对接 Embidding 大模型来提供知识库检索的精度。
在工作流中支持知识库检索对于企业用户而言非常重要,在工作流交互过程中来扩展大模型的能力。
知识库检索同样对于 2025年在中国兴起的 AI漫剧制作也是非常重要的,因为我们可以通过知识库检索,
来快速的进行剧情加载、人物角色设计参考等方面的应用。
例如在知识库中增加人物参考图,在生成分镜图片时,就可以使用图生图等模式,来进行图片参考。
企业应用
Dify的开源项目直接可以使用 docker compose 进行部署,通过设置env可以开启私有化插件的定制和安装,确保数据安全。
Dify 的工作流都可以通过 API 进行接口形式的访问,这样就可以实现可视化编辑/更新工作流,通过API接口访问,形成了Agent服务的能力。
例如:
curl -X POST 'http://127.0.0.1/v1/completion-messages' \
--header 'Authorization: Bearer {api_key}' \
--header 'Content-Type: application/json' \
--data-raw '{
"inputs": {"query": "Hello, world!"},
"response_mode": "streaming",
"user": "abc-123"
}'
这样就可以定制企业的UI样式,实现独立的开发。
现有工作流对比
Dify vs Coze(扣子)
Coze是面向的是普通用户,针对企业的能力稍差。其中插件更多的是基于字节跳动或者是第三方服务商,尤其是大模型插件不包含 Ollama 等免费服务;
Coze的工作流节点中,对于内容提取相对复杂,需要使用大模型来进行变量的提取。包括字符串拼接等提示词处理,可控度不高。
Dify 的工作流节点可以通过直接对接 python/js 脚本节点来处理输入,也可以通过字符串处理,来使用Jinja 模板语言来实现内容的生成,便于优化提示词。
Coze 私有化部署同样适用docker compose,可以一键启动,但是却无法默认接入插件市场,需要在扣子官方平台申请Token后,才能接入,安装官方/第三方的公共插件;
Coze(扣子)的官方网站发生整体改变,原有的Coze cloud 直接变成了 Coze 编程工具,由此可见 Coze 的重心发生了巨大的变化。
总结
如果你希望了解工作流的搭建,并且有一点点的编程能力,那么使用Dify是比较好的选择。
如果你完全没有编程功底,那么就去用Coze的线上体验,这样会方便一些。