华为诺亚方舟实验室和华东师大推出通用时序异常检测模型

新提出的时序异常检测模型,不依赖特定数据集,展现出优秀的泛化能力和零样本检测性能。

原文标题:时序异常检测新进展!华为诺亚方舟实验室&华东师大提出首个时序异常检测通用模型

原文作者:数据派THU

冷月清谈:

华为诺亚方舟实验室与华东师范大学联合提出了一个创新的时间序列异常检测模型,旨在解决现有检测方法在面对不同数据集时的训练限制。该模型通过在多源数据集上进行预训练,能够有效进行零样本异常检测,而无需特定目标场景的训练数据。其核心在于提升模型的泛化能力,采用自适应瓶颈层设计,以增强对多领域数据的学习能力。此外,论文还提出了双解码器对抗训练策略,分别处理正常和异常数据,提升模型在复杂情况下的决策边界表现。实验结果表明,该模型在多个数据集上的检测性能优于以往的针对性训练模型,展现出良好的通用性和适应能力。

怜星夜思:

1、这种通用异常检测模型在实际应用中能解决哪些问题?
2、在模型设计上,自适应瓶颈层的优势体现在哪些方面?
3、双解码器对抗训练具体是如何加强模型表现的?

原文内容

图片
来源:时序人

本文约1500字,建议阅读5分钟

这篇文章提出了一种通用的时间序列异常检测模型。


今天给大家介绍时间序列的首个通用异常检测模型,由华为诺亚方舟实验室与华东师范大学联合发表,创新性地从信息瓶颈角度考虑模型的泛化能力并提出双解码器对抗训练策略,在多个数据集上进行 zero-shot 异常检测也能达到其他模型全量训练的效果。



【论文标题】
Towards a General Time Series Anomaly Detector with Adaptive Bottlenecks and Dual Adversarial Decoders
【论文地址】
https://arxiv.org/abs/2405.15273


论文背景

现有的异常检测方法通常需要针对每个特定的数据集进行单独的模型训练。当可用的训练数据不足时,这些方法由于其有限的泛化能力,往往难以适应多样化的应用场景。针对这一问题,这篇文章提出了一种通用的时间序列异常检测模型,通过在多源数据集上预训练,该模型无需目标场景训练数据即可实现高效检测,性能优于使用目标场景数据集训练的模型。


为了实现通用异常检测能力,该论文作者从信息瓶颈的角度设计了自适应瓶颈以增强模型的泛化能力,同时通过双解码器对抗性训练策略提升模型在不同目标场景的异常检测性能。


模型方法

预训练阶段,这篇论文的作者同时将正常时序数据以及通过异常注入得到的带噪声扰动的异常时序数据(无需人工标注)输入模型训练。原始数据经过 Patch 划分、位置互补的掩码,并通过编码器(Encoder)后得到的表征被送入自适应瓶颈层(Adaptive Bottlenecks)模块自适应地挑选适合数据重构的信息瓶颈。随后,通过双解码器分别对正常和异常数据进行重构,并使用重构误差引导模型训练。



01、自适应瓶颈层 

自适应瓶颈模块创新性地从动态信息瓶颈的角度考虑了模型面临大规模多源数据时的泛化能力,增强了模型从多域数据中学习正常时间序列模式的能力。现有的工作仅使用单一的瓶颈层,导致其面对多源数据时难以保证在不拟合噪声的同时进行有效重构。为满足多源预训练数据不同的信息瓶颈偏好,这篇文章提出了包含不同隐式空间大小的各种信息瓶颈的集合(Bottleneck Pool),并通过自适应路由机制 R(z) 为输入数据独特的重构要求灵活地选择合适的瓶颈大小。


图片


02、双解码器对抗训练 

为了进一步处理多源数据下正常与异常数据决策边界更复杂的问题,这篇论文还创新性地采用了编码器与解码器对抗性训练的方法。该论文作者认为,作为一个通用异常检测模型,仅仅通过对正常数据进行建模难以应对大规模不同领域的时序数据中更多样的异常表现形式以及更复杂的正常和异常模式的决策边界。


图片


对此,该论文作者提出了一种双解码器对抗性训练策略,并显式地将带有扰动噪声的异常数据纳入预训练过程。这部分数据可以由异常注入生成,不局限于人工标注。对于正常数据,Encoder 和正常 Decoder 最小化正常数据的重构误差,对于异常数据,Encoder 和异常 Decoder 采用对抗性训练。训练目标可以表示为如下形式:


图片


这种对抗性训练策略可以引入梯度反转层(Gradient Reverse Layer, GRL)实现。通过这种策略,模型在预训练的过程中扩大了正常和异常模式的差异,同时避免了编码器过度拟合可能因领域而异的特定模式,从而提升模型在不同场景下的异常检测能力。


实验效果


在实验中,为了验证模型的有效性,这篇文章在 9 个常用的领域各异的异常检测评估数据集上进行了实验,并与现有的 19 个异常检测模型进行了比较。文中提出的模型经过在多源数据集上预训练,可以直接作为新数据集的 zero-shot 异常检测器,并取得比那些专门为每个数据集进行训练的模型更优的效果。



论文的作者对比了不同瓶颈层大小的模型效果,结果显示,不同数据集对瓶颈层大小的偏好各异,固定瓶颈层大小的模型在不同数据集上的表现不够稳定。相对而言,自适应瓶颈层能够根据数据集特点动态调整,从而在各个数据集上都能取得更优的效果。



此外,文中同样将 Baseline 进行大规模预训练并直接进行异常检测,发现它们的泛化能力并未达到理想效果。这一对比进一步说明了对于一个通用异常检测模型,大规模数据预训练以及独特的模型设计缺一不可。更多实验分析请详见论文原文。


编辑:于腾凯
校对:梁锦程



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军



新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

这是个好问题!这个模型的通用性意味着我们不需要为每种应用场景单独训练模型,尤其是在数据稀缺的情况下,它可以直接应用到新的数据集上,极大地降低了时间和人力成本。

我认为,随着企业和研究机构积累的数据越来越多,能实现零样本检测的模型能够为异常监测带来新的突破,尤其是在金融、医疗等高风险领域。

这个模型在处理多源数据时,能相对简单地适应不同的数据特征,这对数据多样化的企业来说,提供了很好的技术支持。

自适应瓶颈层能够根据输入数据的特征动态选择合适的瓶颈大小,这使得模型的重构能力更强,更能捕捉微妙的异常特征。

从技术角度看,这种动态选择信息有助于避免模型过拟合某一类特定模式,增强了模型在多样化数据中的鲁棒性。

就像选择合适的工具来处理不同的修理任务,自适应瓶颈层让模型在面对不同数据集时能够更灵活地调整策略,简直是一种智造的表现!

通过双解码器对抗训练,模型不仅能学习正常数据的模式,还能特意处理异常数据。这种双向学习机制让模型对潜在的异常模式具备更强的识别能力。

这一策略引入了对抗性训练的概念,无论是正常数据还是异常数据,模型都能在训练中不断调整,提升了如何识别复杂模式的能力。

简单来说,双解码器就像一个反向督促,正常和异常并行训练,互相促进学习,让整个检测过程更为全面,非常有趣!