Joint Neural Architecture and Hyperparameter Search for Correlated Time Series Forecasting
Posted 西西弗的小蚂蚁
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Joint Neural Architecture and Hyperparameter Search for Correlated Time Series Forecasting相关的知识,希望对你有一定的参考价值。
Joint Neural Architecture and Hyperparameter Search for Correlated Time Series Forecasting(sigmod2023)
信息物理融合系统中的传感器通常捕获相互关联的过程,从而发出相关的时间序列(CTS),对其进行预测使重要的应用成为可能。CTS预测成功的关键在于揭示时间序列的时间动态和空间相关性。基于深度学习的解决方案在识别这些方面表现出令人印象深刻的性能。特别是,自动CTS预测,其中最佳深度学习架构的设计是自动化的,使预测精度超过了人工方法所达到的水平。然而,自动化CTS解决方案仍处于起步阶段,只能为预定义的超参数找到最佳架构,并且难以扩展到大规模CTS。为克服这些限制,本文提出SEARCH,一个联合的、可扩展的框架,来自动设计有效的CTS预测模型。将每个候选架构和伴随的超参数编码为联合图表示。引入了一个高效的体系结构超参数比较器(AHC)来对所有体系结构超参数对进行排名,然后进一步评估排名最高的对以选择最终结果。在6个标准数据集上的实验结果表明,该方法不仅可以减少人工操作,而且具有比人工设计和现有自动设计的CTS模型更好的性能。此外,它对大型CTS具有良好的可扩展性。
该论文是VLDB2022年 AutoCTS: Automated Correlated Time Series Forecasting的续篇。论文DNN网络搜索运用在时间序列预测问题上,是个有趣的工作。尽管问题提高自动搜索序列序列结构,但是文中没有考虑如何在满足预测条件的情况下实现DNN剪枝,使得模型在训练和存储过程中消耗更少的资源。
以上是关于Joint Neural Architecture and Hyperparameter Search for Correlated Time Series Forecasting的主要内容,如果未能解决你的问题,请参考以下文章
论文精读:Neural Architecture Search without Training
神经网络机器翻译Neural Machine Translation: Encoder-Decoder Architecture
神经网络搜索Efficient Neural Architecture Search
论文精读:Neural Architecture Search without Training
(转)The Evolved Transformer - Enhancing Transformer with Neural Architecture Search