时间序列分析新思路:网格搜索与分段回归结合实现趋势变化点自动检测

本文介绍网格搜索结合分段回归,自动检测时间序列趋势变化点的方法,可用R和Python实现。

原文标题:时间序列趋势变化点检测:网格搜索与分段回归的实操法

原文作者:数据派THU

冷月清谈:

本文介绍了使用网格搜索结合分段回归来自动检测时间序列趋势变化点的方法。面对大规模时间序列数据,人工识别趋势变化点既不可靠也不现实。通过定义参数、代价函数,并对每组网格组合拟合分段回归,然后对结果评分,选择最优网格组合,可以实现自动定位变化点。为了减少过拟合,文章还介绍了节点最小距离约束以及使用AIC和BIC等惩罚代价函数来平衡拟合质量和模型复杂度。此外,文章还分享了具体的网格搜索流程和R语言的实现示例,并讨论了该方法在处理复杂时间序列时的局限性,以及改进策略如预处理分解和联合建模趋势与季节性的方法。总的来说,该方法提供了一种实用且透明的基线方案,可以作为实际工程中的选择。

怜星夜思:

1、文章中提到可以使用STL分解来预处理时间序列,将趋势成分分离出来再进行网格搜索。大家觉得还有哪些其他的预处理方法可以有效地提高变化点检测的准确性呢?比如异常值处理或者数据平滑?
2、文章中使用了BIC准则来避免过拟合,但在实际应用中,AIC和BIC哪个更合适呢?它们之间的区别是什么?
3、文章提到网格搜索的计算效率不高,那么在实际应用中,除了网格搜索,还有哪些更高效的优化算法可以用来寻找最佳的变化点位置?

原文内容

图片
来源:DeepHub IMBA
本文约3000字,建议阅读5分钟
本文介绍了网格搜索结合分段回归,自动检测时间序列趋势变化点的方法与实践。


传统统计方法在时间序列分析中既简洁又有力,但面对大规模时间序列集合时,扩展性往往不尽如人意。现实中的趋势变化往往微弱、带有噪声、数量也不止一个,靠肉眼判断既不可靠也不现实。一旦需要处理数十乃至数百条时间序列,人工识别就更不可行了。



Figure 1: Identify the optimal number of knots and their positions using grid search


解决思路是用程序来定位变化点。估计趋势变化点的手段有很多,本文聚焦于网格搜索策略与分段回归的结合,自动确定变化点的数量和位置。


完整代码有 R 和 Python 两个版本,Streamlit 应用也可在线体验。


使用网格搜索寻找变化点


网格搜索是一种系统化的优化技术,原理并不复杂:在预定义的离散候选参数集上逐一评估模型,按照指定准则挑出表现最好的那组配置。


在分段回归中,待搜索的参数就是节点(knot)的数量和位置,每个节点对应一个候选变化点。整体流程如下:


  • 定义参数

  • 定义代价函数

  • 对每组网格组合拟合分段回归

  • 对结果评分

  • 选择达到最优结果的网格组合


为减少过拟合、增强稳定性,还需要设置节点之间的最小距离约束,避免变化点在时间轴上挤得太近。


定义代价函数


比较不同变化点数量的模型之前,需要有一套统一的评价标准。代价函数(也叫损失函数或目标函数)就是干这个的:它接收一组模型参数,输出一个标量,反映模型误差或拟合质量。机器学习和统计建模中的训练与模型选择,本质上都是在寻找令代价函数取极值的参数组合。


回归问题中,代价函数度量的是预测值与观测值之间的偏差。常见选择包括:均方误差(MSE)度量平方残差的均值;平均绝对误差(MAE)度量绝对残差的均值;负对数似然(NLL)度量观测数据在给定模型下出现的概率。


这些指标只关注拟合优度,不考虑模型复杂度。变化点越多的分段回归模型几乎总能把误差压得更低,哪怕它只是在拟合噪声。


应对方法是引入惩罚代价函数,在拟合质量和模型复杂度之间取得平衡。AIC(赤池信息准则)和 BIC(贝叶斯信息准则)是两个典型代表,均以负对数似然为基础,再加上一个与估计参数数量相关的惩罚项。


AIC:

AIC=-2log(L) +2k

BIC:

BIC=-2log(L)+k*log(n)


其中:

  • L = 最大化似然值

  • k = 估计参数的数量

  • n = 观测值的数量



Figure 2: Example for finding the optimal number of knots using the BIC score


惩罚项的存在抑制了不必要的复杂度,有助于在网格搜索中筛选出真正有意义的变化点数目。BIC 的惩罚力度比 AIC 更重,选出的变化点数量往往更少——也就更保守。


网格搜索工作流程


基础概念铺设完毕,下面定义网格搜索的具体流程。一个典型的变化点检测网格搜索包含四个环节:

  • 准备数据并定义搜索空间

  • 为给定的节点配置拟合分段回归模型

  • 使用惩罚代价函数评估每个配置

  • 选择最优的节点数量及其位置

函数输入是时间序列与搜索空间参数,输出是最优节点集合。



Figure 3: A general grid search function workflow


网格搜索胜在直白、易于实现,但计算开销会随候选变化点数量的增长而快速膨胀。引入搜索空间约束可以缓解这个问题:减少待评估的配置数,同时也起到防止过拟合的作用。


具体的约束手段有三条:一是排除序列头尾一定比例的观测值,保证每个分段都有足够数据支撑趋势估计;二是强制每个分段包含不少于某个阈值的观测值,稳定斜率估计,避免模型在短而嘈杂的片段上过拟合;三是限定节点数量的上限,控制搜索范围。


设置这些参数时需要综合考虑观测值数量、序列频率以及业务逻辑。


注意,这里用不含节点的简单趋势模型作为网格搜索结果的基准。


网格搜索实现


回到前一篇教程的示例——加利福尼亚州天然气消费者数量,看一下网格搜索函数在 R 中的实现。Python 版本可在对应 notebook 中获取。


加载所需的库:


 library(dplyr)  
 library(tsibble)  
 library(plotly)


引入一组辅助函数,其中包括网格搜索函数 piecewise_regression:


 fun_path <- "https://raw.githubusercontent.com/RamiKrispin/the-
 forecaster/refs/heads/main/functions.R"  
 source(fun_path)


加载序列并整理格式:


 path <- "https://raw.githubusercontent.com/RamiKrispin/the-forecaster/refs/heads/main/data/ca_natural_gas_consumers.csv"  
ts <- read.csv(path) |>  
    arrange(index) |>  
    filter(index > 1986) |>  
    as_tsibble(index = "index")  
 ts |> head()


序列为年度数据,index 列是时间戳,y 列是数值:


 # A tsibble: 6 x 2 [1Y]  
  index       y  
  <int>   <int>  
1  1987 7904858  
2  1988 8113034  
3  1989 8313776  
4  1990 8497848  
5  1991 8634774  
6  1992 8680613


绘制序列:


 p <- plot_ly(data = ts) |>  
  add_lines(x = ~ index,  
            y = ~ y, name = "Actual") |>  
            layout(  
        title = "Number of Natural Gas Consumers in California",  
        yaxis = list(title = "Number of Consumers"),  
        xaxis = list(title = "Source: US energy information administration"),  
        legend = list(x = legend_x, y = legend_y)  
    )  
 p



Figure 4: Yearly number of natural gas consumers in California. The series is trending up without seasonality patterns


用 piecewise_regression 函数识别最优节点数量及位置:


 grid <- piecewise_regression(  
    data = ts,  
    time_col = "index",  
    value_col = "y",  
    max_knots = 4,  
    min_segment_length = 8,  
    edge_buffer = 0.05,  
    grid_resolution = 20  
 )


搜索空间由以下参数定义:

  • max_knots - 最大节点数量

  • min_segment_length - 两个节点之间的最小观测值数量

  • edge_buffer - 从序列头尾排除的观测值比例

  • grid_resolution - 每个节点数量对应的最大搜索组合数


这里把 max_knots 设为 4,搜索空间中节点数量的范围就是 0–4。函数会根据约束条件生成候选配置,并裁剪掉不满足条件的组合。


运行结果如下:


 Testing 0 knot(s)...  
  Best BIC: 919.28 | RSS: 1.006639e+12 | Tested 1 configurations  
Testing 1 knot(s)...  
  Best BIC: 858.05 | RSS: 182625404855 | Tested 18 configurations  
Testing 2 knot(s)...  
  Best BIC: 844.26 | RSS: 115452860424 | Tested 25 configurations  
Testing 3 knot(s)...  
  Best BIC: 852.94 | RSS: 131838198802 | Tested 5 configurations  
Testing 4 knot(s)...  
Optimal model:  2 knot(s) with BIC = 844.26   
Warning message:  
In generate_candidates(k, min_idx, max_idx, min_segment_length) :  
   Cannot fit 4 knots with min segment length 8


输出按节点数量分组列出了测试过的模型数,最终确定最优节点数为 2。函数还抛出了一条警告:受搜索空间约束限制,观测值不足以容纳 4 个节点,因此跳过了对应的拟合。这一行为符合预期——说明约束条件正在起作用。


下面的动画展示了搜索空间中所有配置的拟合过程:


图片

Figure 5: Animation of the grid search process


函数输出中包含搜索过程和最优结果的详细信息。最优节点数:


 grid$optimal_knots  
 [1] 2


节点位置:


 grid$knot_dates  
 [1] 1999 2007


最后,用 plot_knots 函数加上注释,把最优节点叠加到原始序列上进行可视化:



Figure 6: The optimal number of knots and their positions based on the grid search results


局限性


网格搜索配合分段回归,对于识别趋势变化点的数量和位置是一种切实可行的方案。它最适合的场景是相对"干净"的时间序列,主导信号就是底层趋势——本文的示例正是如此。


现实中的时间序列往往不这么纯粹。季节性、突发水平偏移、异常值都可能干扰甚至扭曲趋势成分。在这些效应存在的情况下,网格搜索可能定位到虚假的变化点,也可能遗漏真正有意义的趋势断裂。


一种可行的预处理策略是先做分解(如 STL),将趋势成分分离出来,再在提取到的趋势上执行网格搜索,而非直接在原始序列上操作。


对于结构复杂或噪声较大的序列,能够联合建模趋势与季节性的变化点检测方法可能更为适用。


总结


本文展示了如何将变化点检测转化为一个优化问题:通过网格搜索遍历候选节点配置,用惩罚似然准则(BIC)选出最优模型,配合分段回归完成趋势变化点的自动检测。


分段回归是建模趋势变化的可解释框架;网格搜索虽然朴素,但在估计变化点位置上行之有效;BIC 等惩罚准则在拟合优度与模型复杂度之间做出了取舍,抑制了过拟合倾向;搜索空间约束——边缘缓冲区、最小分段长度、最大节点数——进一步稳定了模型并降低了计算开销。


网格搜索在计算效率上确实算不上最优解,但它的透明度是一大优势,作为基线方法和实际工程中的可用方案都没有问题。面对更复杂的场景,可以在此框架基础上引入高级优化策略或贝叶斯变化点检测方法。下一篇教程将讨论如何把这套方法应用到更复杂的实际场景中。


本文代码:

https://github.com/RamiKrispin/the-forecaster/


by Rami Krispin


编辑:于腾凯
校对:丁玺茗



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU


关于AIC和BIC的选择,我的经验是这样的:如果我更关注模型的预测能力,并且数据量不是特别大,我会倾向于使用AIC,因为它对模型复杂度的惩罚较轻,更容易选择包含更多参数的模型。但如果我更关心模型的解释性,或者数据量很大,BIC会是更好的选择,它更倾向于选择更简单的模型,避免过拟合。说白了,AIC奔放,BIC保守,根据实际情况来吧!

设置约束条件这事儿,我一般是根据业务经验来的。比如,如果我知道某个趋势变化至少需要持续半年以上,那我就把最小分段长度设为6个月。排除头尾观测值是为了避免短期波动的影响,这个比例可以根据序列的平稳性来调整。当然,最重要的是多尝试,观察约束条件对结果的影响,不断优化。

最小距离约束的设置,可以考虑时间序列的频率。比如,对于月度数据,如果业务上认为相邻两个月不可能发生趋势反转,那么最小距离可以设置为2。对于头尾观测值的排除,可以考虑使用滑动窗口的方法,计算序列头尾的波动程度,如果波动较大,就排除更多的观测值。总的来说,约束条件的设置需要结合领域知识和数据特征。

分段回归对付趋势变化是把好手,但遇到季节性就有点吃力了。我的做法是先用像STL分解这样的方法把季节性剥离出来,再对趋势项跑分段回归。如果季节性变化太复杂,那就得祭出更高级的武器了,比如状态空间模型,能同时建模趋势、季节性和其他成分,就是上手难度有点高。

对于复杂的时间序列,我更倾向于使用机器学习方法,比如 Prophet 或者 NeuralProphet。这些模型可以自动学习时间序列的各种模式,包括趋势性、季节性和节假日效应,而且使用起来也比较方便。当然,机器学习模型的缺点是可解释性较差,需要仔细调参。

BIC相比AIC,对模型复杂度的惩罚更重,所以BIC倾向于选择更简单的模型。如果你更看重模型的泛化能力,或者说,你认为实际的数据生成过程很可能是个简单的模型,那BIC更合适。但如果你的数据量很大,BIC的惩罚可能会过于严厉,导致模型欠拟合,这时候AIC可能更好。至于其他的惩罚准则,还有HQ准则等等,但AIC和BIC是最常用的。