Dify工作流调度方案解析:Dify Schedule与XXL-JOB对比

Dify工作流调度怎么做?本文对比Dify Schedule和XXL-JOB两种方案,解决定时调度、监控报警和性能问题。

原文标题:如何管理和调度Dify工作流?

原文作者:阿里云开发者

冷月清谈:

本文深入探讨了Dify工作流的调度管理,针对Dify本身缺乏定时调度和长期运行后性能下降的问题,提出了两种解决方案:Dify Schedule和XXL-JOB。Dify Schedule基于Github Actions,配置简单,但存在公网依赖、调度延迟大、配置繁琐等限制。XXL-JOB则提供了更强大的功能,如秒级调度、内网支持、企业级报警和丰富的可观测性,并能通过限流控制避免大模型Token限流问题。文章对比了两种方案的优缺点,为用户选择合适的Dify工作流调度方案提供了参考。

怜星夜思:

1、对于Dify工作流中涉及大量数据处理的任务,除了文中的限流方案,还有哪些其他的优化策略可以考虑,以避免Token限流并提高资源利用率?
2、如果Dify部署在完全隔离的内网环境中,无法访问任何外部服务,那么如何实现Dify工作流的定时调度和监控?
3、在实际应用中,如何根据Dify工作流的复杂度和业务需求,选择合适的调度方案?例如,对于简单的数据同步任务和复杂的AI模型训练任务,选择策略会有什么不同?

原文内容


概述

Dify[1]是一款开源的大模型应用开发平台,可以通过可视化的画布拖拖拽拽快速构建AI Agent/工作流。Agent通常指能够自主决策、动态响应的智能体,比如聊天机器人、自动化客服等。工作流适合结构化、步骤明确、对输出内容和格式要求非常严谨的场景。 Dify工作流有许多场景,需要用到定时调度,比如:

  • 风险监控:每分钟扫描风险数据,通过大模型分析是否有风险事件,并发出报警。
  • 数据分析:每天拉取金融数据,通过大模型进行数据分析,给出投资者建议。
  • 内容生成:每天帮我做工作总结,写日报。

本篇文章将介绍如何通过任务调度系统调度Dify工作流,通过任务调度系统调度LangChain脚本请看《》。

开源Dify的痛点

无定时调度和监控报警

Dify专注于做大模型应用的开发和运行平台,不支持工作流的定时调度和监控报警。

执行记录过多导致性能差

Dify工作流每次执行,会把执行记录存储在数据库的 workflow_node_executions, workflow_runs 等表,永远不会清理,会导致表数据越堆越多,影响性能。该问题社区也提了很多的 Issues,但是社区没有计划去修复该问题,比如:

1. Issue [2]: Ability to control logs. 
2. Issue [3]:Database Size Growth Issue: Workflow Execution Logs and Retention Policy 

解决方案

官方推荐使用任务调度系统托管和调度Dify工作流[4],做定时调度和状态监控。针对Dify侧数据库表数据过多的问题,社区没有计划做自动清理的能力,可以让运维隔断时间手动清理下该表,然后统一在任务调度系统上看执行记录。

Dify Schedule集成Dify工作流

Dify Schedule [5]是一个使用 github actions [6]做Dify工作流定时调度的项目,主要包括的功能如下:

  • 配置和管理Dify工作流,通过github security secrets 安全管理Dify工作流配置信息。
  • 支持cron定时调度和api调度
  • 多渠道消息通知:企业微信、钉钉、飞书、邮件等。

接入步骤

1. Fork 仓库到自己的github账户中。
2. 在.github/workflows下,配置定时任务,每个Dify工作流需要对应一个yml文件
3. 配置Dify工作流信息。进入Fork代码仓库,依次点击 Settings->Secrets and variables->Actions->New repository secret,添加如下密钥:
4. 配置定时任务的通知配置
5. 前往github actions页面,查看调度记录,也可以手动运行
6. 在Dify工作流控制台,工作流的日志页面,可以看到dify-schedule触发的记录

方案限制

只能调度公网Dify

通过github actions 调度Dify工作流,需要 DIFY_BASE_URL 这个配置成公网域名,如果是私网部署的Dify,github无法调度,网络不通。

调度延时大

Github actions的schedule能力比较弱,就算把cron表达式配置成 * * * * * ,也无法做到每分钟调度一次,官方文档[7]描述最小调度频率是5分钟。

You can schedule a workflow to run at specific UTC times using POSIX cron syntax. Scheduled workflows run on the latest commit on the default or base branch. The shortest interval you can run scheduled workflows is once every 5 minutes.

经过实际测试下来,可能是github调度资源有限,就算把cron表达式配置成 "*/5 * * * *" ,也无法保证5分钟一次,调度经常会延迟十几分钟甚至好几十分钟,如果想要精确的做Dify工作流定时调度,该方案不是很合适。比如配置每5分钟调度一次,实际调度情况如下图:

配置复杂

每增加一个Dify工作流,就得配置一个github actions workflow文件,针对每个Dify工作流,还得新增 DIFY_TOKENS、DIFY_INPUTS等Secrets配置,开发维护成本比较高。

无失败报警

失败报警是定时任务系统的基本诉求,如果Dify工作流运行失败了,需要及时通知到业务方,否则容易产生故障。该方案的消息通知,是任务执行成功失败都通知,没法配置只通知失败的任务。

XXL-JOB集成Dify工作流

XXL-JOB[8]是开源非常流行的任务调度系统,简单易用,并且功能丰富。可以做到秒级别调度,提供任务的报警监控、手动运维、监控大盘等能力。

阿里云XXL-JOB版完全兼容开源,支持调度公网的Dify集群,也支持调度阿里云内网的Dify集群,下面以调度阿里云内网Dify详细介绍。

接入步骤

1. 在阿里云上自建Dify集群,比如通过容器服务一键部署Dify[9],并通过模版新建工作流,如下创建了一个有迭代器的工作流:
2. 在MSE中新建XXL-JOB集群[10](限时免费试用一个月),vpc网络需要和Dify集群保持一致。
3. 进入XXL-JOB集群中,先创建应用,再创建任务,任务类型选择“Dify工作流”
  • Endpoint:Dify工作流的API服务器,如果是阿里云自建Dify,推荐域名换成内网。
  • API KEY:Dify工作流的API 密钥,不同的工作流有不同的密钥,通过这里获取。
  • 输入:工作流的输入,json格式,比如
{"input_text": "what is your name"}
4. 测试运行,可以通过任务管理->运行一次,进行测试。

方案优势

秒级别调度

该方案支持多种定时调度,包括cron、fixed_rate、fixed_delay,能精确到秒级别调度。同时还支持时区、自定义日历等定时配置。

安全防护
  • 可以通过内网域名调度Dify工作流,不需要把Dify的API服务器暴露到公网,减少安全风险。
  • 精细化权限管控:使用阿里云RAM权限体系,能支持给不同的账号、角色配置不同的权限,比如开发可以新建和编辑Dify工作流任务,运营只能读和手动运行任务。
限流控制

有一堆Dify工作流,每天运行一次或者每小时运行一次,如果把定时时间设置同一时刻,会导致调用大模型的时候触发token限流,任务执行失败。

XXL-JOB自带任务失败自动重试功能,虽然通过不断重试最终可以解决该问题,但是限流过程中一直重试会加重token限流,资源利用率不高,重复重试还会导致浪费token消耗,增加成本。所以针对该场景,推荐使用限流方案:

如上图所示,任务调度XXL-JOB版支持应用级别的限流控制:

1. 每个应用会有2个队列,一个是优先级排队队列,可以把任务按照优先级在队列中排队,保证核心任务优先跑完。任务的优先级仅在自己的应用下生效,不会和其他应用产生冲突。
2. 另一个是并发数队列,控制这个应用的并发数,不同应用的并发数彼此不受干扰。
3. 当并发队列中某个任务运行完成,有空闲槽位后,会从排队队列头部取出任务,放到并发队列中,开始执行任务。
企业级报警

任务调度XXL-JOB版集成阿里云监控,提供企业级报警服务:

  • 支持联系人、联系人组统一管理。
  • 支持实例和应用维度阈值报警,比如某个应用最近N分钟连续环比下跌30%。
  • 支持精细化到任务级别的失败报警、超时报警、成功通知。
  • 支持短信、电话、webook、邮件报警渠道。
丰富的可观测
调度大盘

调度大盘通过曲线的形式展示整体调度情况,包括执行成功和执行失败,支持应用、时间区间的过滤:

执行记录

执行记录通过列表的形式展示了每次执行的基本详情,包括Dify工作流执行的状态、耗时和tokens消耗,支持多种条件过滤查询:

工作流详情

在执行记录列表中,点详情,可以看到整个Dify工作流这次运行的详情。

  • 基本信息
  • 输入输出
节点追踪

任务开始执行,MSE-XXLJOB通过streaming模式,就可以实时拿到该工作流所有节点的执行情况,如果节点是迭代器和循环分支,还能支持节点下钻,比如步骤1中包含迭代器的工作流,节点追踪如下图所示:

点击迭代器节点 - Iteration,可以看到子流程如下:

调度事件

调度事件以列表的形式展示了任务每次调度的所有事件,针对Dify工作流任务,还包括了所有工作流和节点的事件,支持按照应用、任务名、任务执行ID、时间区间过滤:

总结

Dify-Schedule和MSE-XXLJOB,调度Dify工作流详细对比如下表:

有任何问题和需求,欢迎加钉钉群交流:23103656

参考链接:
[1]https://dify.ai/zh
[2]https://github.com/langgenius/dify/issues/9747
[3]https://github.com/langgenius/dify/issues/12991
[4]https://docs.dify.ai/zh-hans/learn-more/use-cases/dify-schedule
[5]https://github.com/leochen-g/dify-schedule
[6]https://docs.github.com/en/actions
[7]https://docs.github.com/en/actions/writing-workflows/choosing-when-your-workflow-runs/events-that-trigger-workflows#schedule
[8]https://github.com/xuxueli/xxl-job/
[9]https://help.aliyun.com/zh/ack/cloud-native-ai-suite/use-cases/building-customized-ai-question-and-answer-assistant-based-on-dify?spm=5176.29677750.J_XmGx2FZCDAeIy2ZCWL7sW.43.e939154aIffJKV&scm=20140722.S_help@@文档@@2842906._.RL_dify-LOC_2024NSHelpLink-OR_ser-PAR1_2150427d17476528897716368e03af-V_4-P0_0-P1_0#6ab35f025cpzv
[10]https://mse.console.aliyun.com/#/schedulerx-xxljob?region=cn-hangzhou

云上高可用架构


从企业上云最基础的需求出发,面向可能遇到的单点故障风险,介绍了经典的“业务上云高可用架构”方案设计。    


点击阅读原文查看详情。

针对完全隔离的内网环境,可以考虑以下方案:
1. 自建任务调度系统:在内网搭建如XXL-JOB等任务调度系统,确保其与Dify在同一网络环境下。
2. 容器化部署:将Dify和调度系统打包成容器镜像,统一部署和管理。
3. API 调度:Dify内部提供API接口,通过内网调度系统调用API触发工作流执行。
4. 监控系统集成:将Dify的运行状态和日志集成到内网的监控系统中,实现实时监控和报警。

除了限流,还可以考虑以下策略:
1. 数据预处理与清洗:在将数据输入大模型之前,进行清洗和预处理,减少无效信息的Token消耗。
2. Prompt优化:优化Prompt设计,使其更简洁高效,减少不必要的Token使用。
3. 模型选择:根据任务选择最合适的模型,避免使用过于复杂的模型处理简单任务。
4. 异步处理:将任务拆分成更小的子任务,异步执行,控制每个任务的Token消耗。
5. 缓存机制:对重复请求的结果进行缓存,避免重复计算,减少Token消耗。

既然是完全隔离的内网环境,安全性要求应该很高。可以考虑用一些国产的任务调度系统,比如海豚调度(DolphinScheduler),支持各种复杂的调度策略,而且有完善的权限管理机制,更符合内网环境的需求。

任务的复杂度是选择调度方案的关键因素:
* 简单任务:对于简单的数据同步等任务,Dify Schedule可能就足够了,配置简单,快速上手。
* 复杂任务:对于复杂的AI模型训练等任务,需要考虑性能、稳定性、监控报警等因素,XXL-JOB或者其他专业的调度系统更合适。
此外,还需要考虑团队的技术栈、运维能力、成本预算等因素。

我有个不太靠谱的想法,不知道行不行得通:能不能用小模型先对数据做个初步的摘要,然后再把摘要喂给大模型?这样是不是能大大减少Token数量?相当于套娃了,哈哈哈。

我们公司之前也遇到过类似的情况。当时的做法是写一个简单的Python脚本,用cron定时执行,然后通过Dify的API接口触发工作流。虽然比较简陋,但也能满足基本的定时调度需求。

补充一下,选择调度方案还要考虑可维护性。如果团队对Github Actions比较熟悉,那用Dify Schedule可能更容易维护。如果团队有专门的运维团队,那选择功能更强大的XXL-JOB可能更合适。

我觉得最重要的是要看任务的容错率。如果是对数据准确性要求极高的任务,一定要选择有完善的监控和报警机制的调度系统。否则一旦出错,损失就大了。

作为算法工程师,我补充一个偏技术的方案:可以尝试Prompt压缩。很多研究表明,在不显著影响模型效果的情况下,我们可以对Prompt进行压缩,比如使用更短的关键词、缩写等。具体的压缩方法有很多,可以根据实际情况选择。不过这样做需要仔细评估效果,防止信息损失。