云霞资讯网

基于网格搜索与分段回归的时间序列变化点检测方法

传统统计方法在时间序列分析中既简洁又有力,但面对大规模时间序列集合时,扩展性往往不尽如人意。现实中的趋势变化往往微弱、带

传统统计方法在时间序列分析中既简洁又有力,但面对大规模时间序列集合时,扩展性往往不尽如人意。现实中的趋势变化往往微弱、带有噪声、数量也不止一个,靠肉眼判断既不可靠也不现实。一旦需要处理数十乃至数百条时间序列,人工识别就更不可行了。

Figure 1: Identify the optimal number of knots and their positions using grid search

解决思路是用程序来定位变化点。估计趋势变化点的手段有很多,本文聚焦于网格搜索策略与分段回归的结合,自动确定变化点的数量和位置。

完整代码有 R 和 Python 两个版本,Streamlit 应用也可在线体验。

使用网格搜索寻找变化点

网格搜索是一种系统化的优化技术,原理并不复杂:在预定义的离散候选参数集上逐一评估模型,按照指定准则挑出表现最好的那组配置。

在分段回归中,待搜索的参数就是节点(knot)的数量和位置,每个节点对应一个候选变化点。整体流程如下:

定义参数

定义代价函数

对每组网格组合拟合分段回归

对结果评分

选择达到最优结果的网格组合

为减少过拟合、增强稳定性,还需要设置节点之间的最小距离约束,避免变化点在时间轴上挤得太近。

定义代价函数

比较不同变化点数量的模型之前,需要有一套统一的评价标准。代价函数(也叫损失函数或目标函数)就是干这个的:它接收一组模型参数,输出一个标量,反映模型误差或拟合质量。机器学习和统计建模中的训练与模型选择,本质上都是在寻找令代价函数取极值的参数组合。

回归问题中,代价函数度量的是预测值与观测值之间的偏差。常见选择包括:均方误差(MSE)度量平方残差的均值;平均绝对误差(MAE)度量绝对残差的均值;负对数似然(NLL)度量观测数据在给定模型下出现的概率。

这些指标只关注拟合优度,不考虑模型复杂度。变化点越多的分段回归模型几乎总能把误差压得更低,哪怕它只是在拟合噪声。

应对方法是引入惩罚代价函数,在拟合质量和模型复杂度之间取得平衡。AIC(赤池信息准则)和 BIC(贝叶斯信息准则)是两个典型代表,均以负对数似然为基础,再加上一个与估计参数数量相关的惩罚项。

AIC:

AIC=-2log(L) +2k

BIC:

BIC=-2log(L)+k*log(n)

其中:

L = 最大化似然值

k = 估计参数的数量

n = 观测值的数量

Figure 2: Example for finding the optimal number of knots using the BIC score

惩罚项的存在抑制了不必要的复杂度,有助于在网格搜索中筛选出真正有意义的变化点数目。BIC 的惩罚力度比 AIC 更重,选出的变化点数量往往更少——也就更保守。

网格搜索工作流程

基础概念铺设完毕,下面定义网格搜索的具体流程。一个典型的变化点检测网格搜索包含四个环节:

准备数据并定义搜索空间

为给定的节点配置拟合分段回归模型

使用惩罚代价函数评估每个配置

选择最优的节点数量及其位置

函数输入是时间序列与搜索空间参数,输出是最优节点集合。

Figure 3: A general grid search function workflow

网格搜索胜在直白、易于实现,但计算开销会随候选变化点数量的增长而快速膨胀。引入搜索空间约束可以缓解这个问题:减少待评估的配置数,同时也起到防止过拟合的作用。

具体的约束手段有三条:一是排除序列头尾一定比例的观测值,保证每个分段都有足够数据支撑趋势估计;二是强制每个分段包含不少于某个阈值的观测值,稳定斜率估计,避免模型在短而嘈杂的片段上过拟合;三是限定节点数量的上限,控制搜索范围。

设置这些参数时需要综合考虑观测值数量、序列频率以及业务逻辑。

注意,这里用不含节点的简单趋势模型作为网格搜索结果的基准。

网格搜索实现

回到前一篇教程的示例——加利福尼亚州天然气消费者数量,看一下网格搜索函数在 R 中的实现。Python 版本可在对应 notebook 中获取。

加载所需的库:

library(dplyr)  library(tsibble)  library(plotly)

引入一组辅助函数,其中包括网格搜索函数 piecewise_regression:

fun_path <- "https://raw.githubusercontent.com/RamiKrispin/the-forecaster/refs/heads/main/functions.R"    source(fun_path)

加载序列并整理格式:

path <- "https://raw.githubusercontent.com/RamiKrispin/the-forecaster/refs/heads/main/data/ca_natural_gas_consumers.csv"    ts <- read.csv(path) |>      arrange(index) |>      filter(index > 1986) |>      as_tsibble(index = "index")    ts |> head()

序列为年度数据,index 列是时间戳,y 列是数值:

# A tsibble: 6 x 2 [1Y]    index       y    <int>   <int>  1  1987 7904858  2  1988 8113034  3  1989 8313776  4  1990 8497848  5  1991 8634774  6  1992 8680613

绘制序列:

p <- plot_ly(data = ts) |>    add_lines(x = ~ index,              y = ~ y, name = "Actual") |>              layout(          title = "Number of Natural Gas Consumers in California",          yaxis = list(title = "Number of Consumers"),          xaxis = list(title = "Source: US energy information administration"),          legend = list(x = legend_x, y = legend_y)      )    p

Figure 4: Yearly number of natural gas consumers in California. The series is trending up without seasonality patterns

用 piecewise_regression 函数识别最优节点数量及位置:

grid <- piecewise_regression(      data = ts,      time_col = "index",      value_col = "y",      max_knots = 4,      min_segment_length = 8,      edge_buffer = 0.05,      grid_resolution = 20  )

搜索空间由以下参数定义:

max_knots - 最大节点数量

min_segment_length - 两个节点之间的最小观测值数量

edge_buffer - 从序列头尾排除的观测值比例

grid_resolution - 每个节点数量对应的最大搜索组合数

这里把 max_knots 设为 4,搜索空间中节点数量的范围就是 0–4。函数会根据约束条件生成候选配置,并裁剪掉不满足条件的组合。

运行结果如下:

Testing 0 knot(s)...    Best BIC: 919.28 | RSS: 1.006639e+12 | Tested 1 configurations  Testing 1 knot(s)...    Best BIC: 858.05 | RSS: 182625404855 | Tested 18 configurations  Testing 2 knot(s)...    Best BIC: 844.26 | RSS: 115452860424 | Tested 25 configurations  Testing 3 knot(s)...    Best BIC: 852.94 | RSS: 131838198802 | Tested 5 configurations  Testing 4 knot(s)...    Optimal model:  2 knot(s) with BIC = 844.26   Warning message:  In generate_candidates(k, min_idx, max_idx, min_segment_length) :    Cannot fit 4 knots with min segment length 8

输出按节点数量分组列出了测试过的模型数,最终确定最优节点数为 2。函数还抛出了一条警告:受搜索空间约束限制,观测值不足以容纳 4 个节点,因此跳过了对应的拟合。这一行为符合预期——说明约束条件正在起作用。

下面的动画展示了搜索空间中所有配置的拟合过程:

Figure 5: Animation of the grid search process

函数输出中包含搜索过程和最优结果的详细信息。最优节点数:

grid$optimal_knots  [1] 2

节点位置:

grid$knot_dates  [1] 1999 2007

最后,用 plot_knots 函数加上注释,把最优节点叠加到原始序列上进行可视化:

Figure 6: The optimal number of knots and their positions based on the grid search results

局限性

网格搜索配合分段回归,对于识别趋势变化点的数量和位置是一种切实可行的方案。它最适合的场景是相对"干净"的时间序列,主导信号就是底层趋势——本文的示例正是如此。

现实中的时间序列往往不这么纯粹。季节性、突发水平偏移、异常值都可能干扰甚至扭曲趋势成分。在这些效应存在的情况下,网格搜索可能定位到虚假的变化点,也可能遗漏真正有意义的趋势断裂。

一种可行的预处理策略是先做分解(如 STL),将趋势成分分离出来,再在提取到的趋势上执行网格搜索,而非直接在原始序列上操作。

对于结构复杂或噪声较大的序列,能够联合建模趋势与季节性的变化点检测方法可能更为适用。

总结

本文展示了如何将变化点检测转化为一个优化问题:通过网格搜索遍历候选节点配置,用惩罚似然准则(BIC)选出最优模型,配合分段回归完成趋势变化点的自动检测。

分段回归是建模趋势变化的可解释框架;网格搜索虽然朴素,但在估计变化点位置上行之有效;BIC 等惩罚准则在拟合优度与模型复杂度之间做出了取舍,抑制了过拟合倾向;搜索空间约束——边缘缓冲区、最小分段长度、最大节点数——进一步稳定了模型并降低了计算开销。

网格搜索在计算效率上确实算不上最优解,但它的透明度是一大优势,作为基线方法和实际工程中的可用方案都没有问题。面对更复杂的场景,可以在此框架基础上引入高级优化策略或贝叶斯变化点检测方法。下一篇教程将讨论如何把这套方法应用到更复杂的实际场景中。

本文代码:

https://avoid.overfit.cn/post/17546aec522448f3a843c394d804fe48

by Rami Krispin