论文笔记:COST: CONTRASTIVE LEARNING OF DISENTANGLEDSEASONAL-TREND REPRESENTATIONS FORTIME SERIES FOREC

Posted UQI-LIUWJ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文笔记:COST: CONTRASTIVE LEARNING OF DISENTANGLEDSEASONAL-TREND REPRESENTATIONS FORTIME SERIES FOREC相关的知识,希望对你有一定的参考价值。

ICLR 2022

1 前言介绍

  • 表征学习(对比学习)+时间序列预测
    • 首先学习时间序列解耦的representation
    • 然后进行回归任务的精调
  • 对比学习CoST包含时域和频域的contrastive loss
    • ——>学习趋势和周期性representation
  • 传统的时间序列预测模型将特征表示学习和预测任务放在一块
    • 迭代很多非线性层来同时进行特征提取和预测回归任务
    • 但这样的方式可能会导致模型过拟合,提取到数据中多余的噪声信息
    • ——>这篇论文提出了利用解耦的(disentangled)周期和趋势之间结构的特征表达,来建模时间序列

2 时间序列的周期性和趋势

 是一个有m个观测信号,T长度的时间序列。

给定可视窗口h,目标是预测接下来的k步时间片

        这篇论文的思路是,不把特征学习和预测任务同时在g()函数中实现。论文主要关注如何学习特征表示。也即如何学习X的非线性特征表示V=f(X),其中

        之后可以将最后的Vh作为下游预测任务的输入

2.1 周期和趋势解耦的特征学习

  • 复杂的数据往往是由多个源的数据共同组成的
    • ——>一个好的特征表示可以解耦这多个可解释的源
    • 如果不能解耦的话,可能会学到冗余的特征

  •  一个观测到的时间序列X可以看成由误差项E和无误差项X*组成
    • X*由周期S和趋势T组成
    • 由于E不可预测,所以最优的预测是把X*找出来(之前的工作是直接找X,这就会导致捕捉到冗余的信息,以及过拟合)
  • 周期和趋势单元是相互独立的,他们不会影响到对方
    • 所以即使周期和趋势中的一个发生了改变,另一个是不会受到影响的
    • ——>周期和趋势可以独立地进行学习
  • 误差E是不会影响无误差项的
    • 即P(X*|T,S)和E无关
    • 这里由于X*是未知的,所以作者使用对比学习
      • 在误差项E上进行数据增强,得到不同的
        • ——>学到不随误差项而变化的S和T的表示

 3 周期-趋势对比学习

目标是学习时间序列的解耦周期-趋势表征

,其中

 (α这里是一个平衡趋势表征和周期性表征的超参数)

3.1 趋势表征学习

  • 自回归过滤是一种提取趋势的方法,但是问题在于,time-lag取多大呢?
    • 太小——欠拟合
    • 太大——过拟合+参数过多

3.1.1 趋势特征提取器

  • 这里使用了多个自回归过滤混合的方式,以自动学习合适的time-lag

  • TFD由L+1个自回归过滤器组成向下取整
  • 每一个CausalConv都是一个1维卷积,输入的channel数为d,输出的channal数为 
  • 第i个CausalConv的核大小是 
    •  ​​​​​​​
  • 最后,是一个平均池化,得到最终的趋势表征

 

3.1.2 时域对比学习误差项

这里使用了MOCO的对比学习思路

 

(K=N-1)

3.2 周期表征学习

3.2.1 周期特征提取器

FFT:把时域转换至空域

 其中振幅和相位可以分别表示为:

最终得到的周期性表征为:

 

3.2.2 频域对比学习误差

振幅和相位的对比误差

4 实验部分

4.1 预测表现

 

 4.2 disentanglement 验证

人造数据,两个trend+三个seasonality,两两组合,得到六个时间序列。

对encoder得到的趋势和周期的表征,通过T-SNE之后,进行可视化

以上是关于论文笔记:COST: CONTRASTIVE LEARNING OF DISENTANGLEDSEASONAL-TREND REPRESENTATIONS FORTIME SERIES FOREC的主要内容,如果未能解决你的问题,请参考以下文章

Contrastive Learning for Unpaired Image-to-Image Translation(CUT)阅读笔记

迁移学习(CDA)《CDA:Contrastive-adversarial Domain Adaptation 》

论文解读(ID-MixGCL)《ID-MixGCL: Identity Mixup for Graph Contrastive Learning》

论文解读——《A Simple Framework for Contrastive Learning of Visual Representations》

论文阅读|浅读GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training

论文阅读|浅读GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training