受微分方程启发的深度学习是最近的研究趋势。其中,利用神经控制微分方程(NCDEs)建立时间序列模型是一种突破。在许多情况下,基于ncde的模型不仅比递归神经网络(RNNs)提供了更好的精度,而且使处理不规则时间序列成为可能。在这项工作中,我们通过重新设计其核心部分,即从离散的时间序列输入生成连续路径,来增强NCDEs。NCDEs通常使用插值算法将离散的时间序列样本转换为连续的路径。然而,我们建议i)使用编码器-解码器架构生成另一个潜在的连续路径,这与NCDEs的插补过程相对应,即我们基于神经网络的插补与现有的显式插补相对应,ii)利用解码器的生成特性,即如果需要,可以超越原始数据的时域外推。因此,我们的NCDE设计可以在下游机器学习任务中同时使用插值和外推信息。在我们对5个真实数据集和12个基线的实验中,我们基于外推和内插的ncde比现有基线的性能要好得多。
背景:1)NODEs and NCDEs recently proposed breakthrough methods to process time-series data 2)NODEs and NCDEs assume continuous time and therefore, they are robust to irregular time-series data
框架:
In this paper, we extend the interpolation-based NCDE model to an EXtrapolation and InTerpolation-based model, called EXIT-NCDE. 我们的方法使用编码器-解码器架构从X构建另一个潜在路径Y。解码器创建的路径Y对其时间域没有限制,而X只能在[0,T]中定义。
1.积分区间在
PROPOSED METHOD
we let our encoder-decoder networks create another latent path Y (from X) whose time domain is unlimited, i.e., [0, ∞]
Encoder-Decoder to Build Latent Path Y
our proposed NCDE framework relies on both the interpolation (when τend ≤ T) and the extrapolation (when τend > T).
1)How to train τ-start, τ-end
实验



