论文笔记:Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks
Posted UQI-LIUWJ
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文笔记:Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks相关的知识,希望对你有一定的参考价值。
SIGIR 2018
使用CNN和RNN进行时间序列预测
1 整体模型部分
输入,预测未来的h个时间片的信息
2 卷积组件
-
由k个宽度维w,高度为n的卷积核作为filter
-
提取时间维度上的短期模式以及变量之间的局部依赖关系
3 RNN组件
使用GRU,对卷积的输出进行学习,提取时序特征
4 递归-跳过层
- 传统的GRU难以捕捉长期模式,论文涉及了递归-跳过层,通过间隔采样的方式,在采样序列长度不变的情况下,回看更长的时间,以此来捕获长期特征。
-
- 将GRU的t-1替换成t-p
5 全连接层
- 通过一个全连接层将递归组件和递归-跳过组件的输出组合起来
- 全连接层的输入包括:时间戳t的递归组件的输出、递归-跳过组件从时间戳t-p+1到t的p个隐藏状态
6 时间注意力层
- 递归-跳过层需要一个预定义的超参数 p
- 当时间序列没有周期性/周期长度随时间变化时,会影响模型的效果
- 为了解决这个问题,论文提出了用注意力机制替换递归-跳过层
- 当前时间戳t处的注意力权重 的计算方式是:
- 是GRU隐藏特征向量的拼接
- 当前时间戳t处的注意力权重 的计算方式是:
- 时间注意力层的输出是
- 此时全连接层的计算方式变为:
7 自回归组件
- 由于卷积组件和递归组件的非线性性质,神经网络模型的一个主要缺点是对于局部的极端变化不敏感(左图这个样子)
- 解决方法是将LSTNet的最终预测分解为一个线性部分和一个非线性部分,其中线性部分主要关注局部变化,而非线性部分关注全局模式
- 线性部分:
- LSTNet的最终预测:
以上是关于论文笔记:Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks的主要内容,如果未能解决你的问题,请参考以下文章
论文笔记-Joint Deep Modeling of Users and Items Using Reviews for Recommendation
MapTR:Structured Modeling and Learning for Online Vectorized HD Map Construction——论文笔记
MapTR:Structured Modeling and Learning for Online Vectorized HD Map Construction——论文笔记
Theano-Deep Learning Tutorials 笔记:Modeling and generating sequences of polyphonic music with the RNN
Theano-Deep Learning Tutorials 笔记:Modeling and generating sequences of polyphonic music with the RNN
论文阅读 | Revisiting Joint Modeling of Cross-document Entity and Event Coreference Resolution