Timer-S1:首个十亿级时序基础模型,预测性能达SOTA

清华联合字节跳动发布十亿级时序基础模型Timer-S1,在GIFT-Eval中预测性能达到SOTA,通过串行缩放范式,在架构、数据和训练上实现了创新。

原文标题:Timer-S1 正式发布:首个十亿级时序基础模型,预测性能达到 SOTA

原文作者:数据派THU

冷月清谈:

清华大学联合字节跳动发布了最新的时序基础模型Timer-S1,该模型首次将时序基础模型拓展至十亿参数级别,上下文长度达到 11.5K 时间点,并在大规模基准测试 GIFT-Eval 中取得了当前最优(SOTA)预测性能。Timer-S1 的核心创新在于提出的串行缩放范式,该范式从架构设计、数据构建、训练流程三个维度推进,其一是架构设计,Timer-S1 采用解码器 - only Transformer 作为基础骨干,创新性融合了稀疏 TimeMoE 块和通用 TimeSTP 块,打造了适配时间序列的串行预测架构;其二是数据构建,打造了包含 1 万亿时间点的时间序列语料库 TimeBench,并通过精细化预处理和数据增强,解决了时间序列数据质量差、分布失衡导致的预测偏差问题;其三是训练流程,创新性设计预训练 + 后训练的多阶段训练流程,通过解耦训练目标,分别提升模型的短期预测精度和长上下文处理能力,进一步降低整体训练成本。通过在GIFT-Eval 上的测试表明,Timer-S1 在中、长期预测任务上的性能提升尤为显著。

怜星夜思:

1、Timer-S1模型中提到的“串行缩放”范式,从架构、数据和训练三个维度入手,分别解决了什么具体问题?为什么这三个维度需要协同推进?
2、Timer-S1模型在数据构建中,如何评估时间序列数据的复杂度?这种复杂度评估对于模型训练有什么作用?
3、Timer-S1模型在训练流程中,为什么要采用“预训练+后训练”的多阶段训练方式?这种方式与单阶段训练相比,有什么优势?

原文内容

图片
本文约3600字,建议阅读5分钟
十亿级规模化的突破,首次将时间序列预测的串行本质,融入模型架构、数据、训练全流程!



在 AI 全面渗透各行业的背景下,工业企业对时序数据的应用需求已从基础查询计算,升级为设备状态预测、缺失数据智能填补等智能化任务,而实现精准预测的关键,在于采用适配时序特性的基础模型开展高效训练。受时序数据多变、随机等固有特性影响,传统模型在通用性与可扩展性上存在明显瓶颈,面向时序场景的专用基础模型也因此成为行业研究焦点。


针对这一技术难点,清华大学软件学院研究团队联合字节跳动研究团队,在自研时序基础模型 Timer 1.0 至 3.0 版本的研究基础上实现新突破,正式发布最新版本 Timer-S1。该模型首次将时序基础模型拓展至十亿参数级别,上下文长度达到 11.5K 时间点,在大规模基准测试 GIFT-Eval 中取得了当前最优(State-of-the-art,SOTA)预测性能


Timer-S1 通过创新的串行缩放范式,从模型架构、数据集、训练流程三大维度重新定义了时序通用预测能力边界。相关研究论文 "Timer-S1: A Billion-Scale Time Series Foundation Model with Serial Scaling" 已正式发布,今天我们将结合论文内容,对核心技术进行详细解读。



01 时间序列基础模型的核心研发难题


相较于自然语言、图像视频等模态,时间序列基础模型的构建面临着独有的技术挑战,这也是模型难以规模化升级的关键原因:


  • 数据异质性强:不同领域的时间序列数据分布差异大,频率、形态多变,高维非结构化的原始数据中,多尺度依赖关系的捕捉难度高;


  • 数据本身的不确定性:现实场景中的时间序列具有非平稳、随机的特性,外部因素或状态变化会导致时间动态突发偏移,为预测带来大量未知性;


  • 规模化适配困境:大语言模型中成熟的 MoE 等规模化架构,直接适配时间序列时容易导致性能下降,且现有预测方法难以兼顾串行特性与推理效率;


  • 训练与推理的鸿沟:自回归模型虽然贴合时间序列的串行预测本质,但迭代滚动推理会带来巨大计算开销和严重的误差累积;并行多步预测虽然提升效率,却缺失必要的串行计算,无法捕捉长期依赖,形成规模化瓶颈。


此前的 Timer 系列模型为统一化时间序列基础模型奠定了基础,而 Timer-S1 的研发核心,正是针对上述难题提出系统性的解决方案。


长期预测累积不确定性,每一步的预测都依赖于先前的估计,这使时间序列预测成为一个串行问题

02 Timer-S1 核心创新:串行缩放的三大维度


Timer-S1 的核心突破在于提出串行缩放范式,从架构设计、数据构建、训练流程三个维度层层推进,既尊重时间序列预测的串行本质,又解决了规模化中的效率、偏差、性能问题,三者相辅相成形成完整的技术体系。


Timer-S1 的串行缩放通过串行预测、数据缩放和后训练三个维度实现


(1) 架构设计:实现高效串行预测


Timer-S1 采用解码器 - only Transformer 作为基础骨干,创新性融合了稀疏 TimeMoE 块和通用 TimeSTP 块,打造了适配时间序列的串行预测架构,兼顾异质性处理、串行计算与推理效率:


  • TimeMoE 块:针对时间序列数据的全局异质性,采用稀疏混合专家架构,能自适应为不同模式的时间序列片段分配专属专家,同时优化提升训练稳定性,在实现 83 亿大参数量的同时,保证推理速度,解决了模型规模化与效率的矛盾


  • TimeSTP 块:为核心的串行令牌预测 (STP) 设计,是 Transformer 块的串行化版本。它会参考初始历史序列和中间特征表示,迭代生成步进式预测,为多步长预测引入渐进式串行计算,且推理阶段保留该模块,无需自回归模型的滚动推理,仅通过单次前向传播就能生成多步预测,既避免了误差累积,又大幅提升效率;


  • 统一的预测头:采用共享分位数预测头,同时支持线性投影、扩散基头等多种预测头,具备架构通用性


此外,模型还通过实例重归一化解决不同数据集的尺度差异,补丁级令牌嵌入将连续时间点转化为模型可处理的令牌,进一步提升跨域泛化能力


Timer-S1 整体架构图


(2) 数据构建:万亿级高质量数据集


高质量的大规模数据集是基础模型的核心支撑,团队为此打造了包含 1 万亿时间点的时间序列语料库 TimeBench,并通过精细化预处理和数据增强,解决了时间序列数据质量差、分布失衡导致的预测偏差问题:


  • 多源数据融合:整合金融、物联网、气象、医疗等真实场景数据,以及 Chronos、LOTSA 等公开研究数据集,同时加入线性、正弦、指数等规范信号及组合的合成数据,丰富数据模式;


  • 严格质量管控:通过因果均值插补、滑动窗口异常值移除等预处理解决缺失值、异常值问题,剔除可能导致测试数据泄露的样本,保证数据可靠性;


  • 针对性数据增强:采用重采样和值翻转两种方式,有效缓解了模型的预测偏差,提升跨场景泛化能力


  • 数据复杂度评估:通过 ADF 平稳性检验、基于频谱熵的可预测性指标,为每个数据集建立二维 “复杂度平面”,实现数据的精细化筛选


(3) 训练流程:兼顾短期与长期预测性能


Timer-S1 摒弃单一阶段的训练模式,创新性设计预训练 + 后训练的多阶段训练流程,通过解耦训练目标,分别提升模型的短期预测精度和长上下文处理能力,进一步降低整体训练成本:


  • 基础预训练:以 STP 为核心目标,对不同输入、输出长度的预测任务进行密集监督,充分训练 TimeMoE 的上下文特征提取能力和 TimeSTP 的多步预测能力;


  • 持续预训练:针对 “长期预测的精度依赖短期预测” 的串行特性,采用加权 STP 目标进行训练,重点提升短期预测性能,同时通过混合采样的重访机制,避免过拟合;


  • 长上下文扩展:基于 RoPE 旋转位置嵌入,将模型的上下文长度从 2880 扩展至 11520,让模型能捕捉更长的历史序列信息,提升长时预测的准确性。


训练过程中,团队实现了跨设备的十亿级参数规模化训练,并采用混合内存-磁盘加载策略,解决了万亿级数据的高效读取问题。


TimeBench 数据集及 Timer-S1 训练流程示意图


03 基准测试结果:GIFT-Eval 实现 SOTA


Timer-S1 在时间序列通用预测基准 GIFT-Eval 上完成了全面评估,该基准包含 24 个数据集、14.4 万个时间序列、1.77 亿数据点,覆盖了主流的统计方法和先进的时间序列基础模型。测试结果充分验证了 Timer-S1 的性能优势:


  • 整体性能 SOTA:Timer-S1 取得了最优的 MASE 和 CRPS 分数,相较于同基于 TimeBench 训练的前代模型 Timer-3,MASE 降低 7.6%,CRPS 降低 13.2%,直接验证了串行缩放的有效性;


Timer-S1 在 GIFT-Eval 排行榜的性能表现


  • 中长期预测表现突出:按预测时长分组的测试显示,Timer-S1 在中、长期预测任务上的性能提升尤为显著,这正是串行预测架构的核心优势 —— 通过渐进式串行计算,有效捕捉了时间序列的长期依赖,解决了现有模型长期预测误差大的痛点;


按预测步长分组的 MASE 性能对比:Timer-S1 在中、长期预测任务中性能优势显著


  • 后训练增益明显:单阶段预训练的模型性能远低于 “预训练 + 持续预训练 + 长上下文扩展” 的多阶段版本,验证了分阶段训练、针对性优化不同能力的技术路线的正确性。


Timer-S1 不同训练流程的性能对比


此外,团队还通过对比实验验证了 STP 的优越性:在相同计算预算下,采用 STP 的 Timer-S1,性能显著优于采用传统下一个令牌预测(NTP) 和多令牌预测(MTP) 的模型,且推理时间更短,充分证明 STP 是提升时间序列长期预测性能的通用有效模块。


NTP/MTP 与 STP 的性能对比


04 消融实验:核心组件缺一不可


为了明确各核心组件对模型性能的贡献,团队开展了详细的消融实验,关键结论如下:


  • TimeSTP 的设计细节至关重要:如果模仿大语言模型丢弃训练后的 TimeSTP 块、采用滚动推理,或引入训练时可见的未来信息,模型性能会显著下降,证明现有设计有效缩小了训练与推理的鸿沟,适配时间序列的分布特性;


Timer-S1 不同 TimeSTP 变体的性能对比


  • 数据增强效果显著:移除重采样、值翻转的增强策略后,模型的泛化能力下降,预测偏差增加,验证了数据增强对缓解时间序列分布失衡的必要性


Timer-S1 有无数据增强的性能对比


  • 预训练的知识迁移能力强:在相同配置下,未在 TimeBench 上预训练、直接从头训练的模型,在 GIFT-Eval 上的表现明显落后,证明 Timer-S1 在预训练阶段学习到了通用时序模式,具备优秀的跨任务知识迁移能力


Timer-S1 有无 TimeBench 预训练的性能对比


同时,模型缩放规律的实验显示,Timer-S1 在 24 个 TimeMoE 块 + 16 个 TimeSTP 块的配置下达到最优性能,验证了时间序列基础模型在十亿级参数规模下仍能保持性能增益,打破了规模瓶颈


不同 TimeMoE/TimeSTP 模块数的预训练性能


05 总结


Timer-S1 实现了时间序列基础模型领域十亿级规模化的突破,提出的串行缩放范式,将时间序列预测的串行本质融入模型的架构、数据、训练全流程,为解决现有模型的规模化瓶颈提供了通用的技术思路。


同时,万亿级数据集 TimeBench、多阶段串行训练流程、TimeSTP 串行预测模块等创新,也为时间序列基础模型的研发提供了可复用的技术方案。


在时序基础模型的探索之路上,Timer-S1 的发布并非终点,而是新的锚点。未来,研究团队将持续深耕时序大模型的泛化效能,推动 Timer 系列在更多工业场景中释放价值,让时序智能成为驱动产业升级的可靠力量。


编辑:文婧



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU


可以先用少量数据做实验,评估不同配置下的性能和效率。如果发现模型在某些特定类型的数据上表现不佳,可以考虑增加TimeMoE的专家数量,或者调整TimeSTP的迭代策略。同时,也可以借助一些模型优化工具,比如剪枝、量化等,来降低模型的计算复杂度,提升推理速度。总之,实践是检验真理的唯一标准,多尝试才能找到最适合自己的配置。

Timer-S1的串行缩放范式在预测性能提升之外,我认为在降低运营成本和提高决策效率方面有很大潜力。例如,在供应链管理中,更准确的需求预测可以减少库存积压和缺货情况,从而降低仓储和运输成本。同时,管理层可以根据更可靠的预测数据,做出更明智的生产和采购决策,提高整体运营效率。长远来看,这种数据驱动的精细化管理是提升企业竞争力的关键。

谢邀,Timer-S1的串行缩放的核心在于对时序数据依赖关系的加强,因此凡是强时序相关的工业应用场景都能发挥价值。举个例子,在电力系统中,精准预测用电负荷对于电网的稳定运行至关重要,可以帮助电力公司更好地调度电力资源,避免电力短缺或浪费,保证居民和企业的正常用电,这直接关系到经济民生啊!

数据质量提升方面,除了文章里提到的方法,还可以考虑引入领域知识。比如,如果你的数据是关于设备运行状态的,可以咨询工程师,了解哪些指标是关键的,哪些数据是容易出错的。然后,针对这些问题,制定相应的数据清洗和增强策略。同时,可以建立数据质量监控系统,定期检查数据的准确性和完整性,及时发现和解决问题。

选择和配置TimeMoE和TimeSTP模块,得看你的数据复杂度和算力情况。如果你的时间序列数据异质性很高,不同片段的模式差异大,那TimeMoE就很有必要,它可以自适应地分配专家处理。但如果数据相对简单,或者算力有限,可以考虑减少TimeMoE的专家数量,或者简化TimeSTP的结构,牺牲一点精度换取更快的速度。

串行缩放范式在工业应用中价值巨大,比如在智能制造领域,可以更精准地预测设备故障,减少停机时间,提升生产效率。业务效益上,不仅降低了维护成本,通过数据驱动的优化,还能提升产品质量和客户满意度。相当于给工业设备装上了“预测未来”的超能力!

个人建议,数据处理流程标准化很重要。从数据采集、存储、清洗、增强到最后的模型训练,每一个环节都要有明确的规范和流程。可以使用一些数据管理工具,比如Airflow、Prefect等,自动化数据处理流程,减少人为错误的发生。此外,要注重数据的版本管理,记录每一次数据修改,方便回溯和复现。

我理解TimeMoE像是负责“识别不同情况的专家组”,TimeSTP则是“根据情况逐步预测的策略”。如果你的数据包含多种不同的模式(比如,电商数据有促销期、平稳期等),且计算资源充足,可以增加TimeMoE的专家数量,让模型更好地捕捉这些模式。如果计算资源有限,可以优先优化TimeSTP的结构,比如减少迭代次数,牺牲部分长期预测的精度,保证整体效率。

我觉得数据质量是模型的基石。首先,要对数据进行全面的清洗,处理缺失值、异常值,保证数据的准确性。其次,要进行有效的数据增强,比如重采样、加噪声等,增加数据的多样性,提高模型的泛化能力。最后,要进行严格的质量评估,比如通过可视化分析、统计指标等,确保数据的质量符合要求。记住,garbage in, garbage out,数据不好,模型再好也白搭。

预训练+后训练的多阶段训练流程可以将模型的训练目标解耦,分别提升模型的短期预测精度和长上下文处理能力,降低整体训练成本。预训练阶段学习通用的时序模式,后训练阶段针对特定任务进行微调。我在实际应用中也尝试过类似的策略,效果确实有所提升,尤其是在数据量较少的情况下。

TimeMoE起到了分散风险的作用,避免让单个模型overfit到某个特定的时间序列模式上,而TimeSTP则更像是针对时间序列预测的特性做的优化,让模型更好地理解时序数据的依赖关系。传统模型在这两方面都比较欠缺,导致泛化能力不足。

这么说吧,TimeMoE就像一个经验丰富的专家团队,每个专家擅长处理不同类型的时间序列数据,模型会根据数据的特点自动选择合适的专家。而TimeSTP则像一个接力赛跑的选手,每一步都依赖于前一步的结果,从而实现更精准的预测。传统模型就像一刀切,不管什么数据都用同样的算法,效果自然不如这种精细化处理方式。

我认为严格质量管控的影响最大。garbage in, garbage out。如果数据本身存在大量缺失值、异常值或错误,那么无论后续的模型设计和训练流程多么优秀,都难以得到准确的预测结果。高质量的数据是模型性能的基础。

我认为多阶段训练的关键在于解耦训练目标。预训练阶段注重提升模型的短期预测精度和长上下文处理能力,后训练阶段则重点关注长期预测的精度。这种分而治之的策略可以避免模型在训练过程中顾此失彼,导致性能下降。单阶段训练则容易陷入局部最优解,难以达到最佳效果。

评估时间序列数据的复杂度,其实是在寻找数据中的“规律”和“噪音”。平稳性检验可以判断数据是否稳定,频谱熵则可以衡量数据的随机性。模型训练的目的就是从数据中提取规律,如果数据过于随机,或者规律过于简单,都会影响模型的学习效果。复杂度评估可以帮助我们选择合适的数据进行训练,提高模型的泛化能力。