使用 AutoML 预测进行深度学习

本文重点介绍 AutoML 中时序预测的深度学习方法。 有关在 AutoML 中训练预测模型的说明和示例,请参阅为时序预测设置 AutoML 一文。

深度学习在语言建模和蛋白质折叠等领域有许多用例。 时序预测也受益于深度学习技术的最新进展。 例如,深度神经网络 (DNN) 在高调的 Makridakis 预测竞争的第四次第五次迭代中,在性能卓越的模型中表现出特征建模方面的突出优势。

在本文中,我们将介绍 AutoML 中 TCNForecaster 模型的结构和操作,帮助你以最佳方式将模型应用于你的场景。

TCNForecaster 简介

TCNForecaster 是一种时序卷积网络 (TCN),它具有专为时序数据设计的 DNN 体系结构。 该模型使用目标数量的历史数据以及相关特征,对目标进行概率预测,一直到指定的预测范围。 下图显示 TCNForecaster 体系结构的主要组成部分:

显示 AutoML 的 TCNForecaster 主要组件的示意图。

TCNForecaster 具有以下主要组成部分:

  • 一个预混合层,用于将输入时序和特征数据混合到卷积堆栈处理的信号通道数组中。
  • 按顺序处理通道数组的扩张卷积层堆栈;堆栈中的每个层处理上一层的输出以生成新的通道数组。 此输出中的每个通道都包含来自输入通道的卷积筛选信号的混合。
  • 预测头单元的集合,用于合并来自卷积层的输出信号,并从此潜在表示形式生成目标数量的预测。 每个头单元生成预测,一直到预测分布的分位数范围。

扩张的因果卷积

TCN 的中心运算是沿输入信号的时间维度的扩张的因果卷积。 直观地,卷积将输入中附近时间点的值混合在一起。 混合中的比例是卷积的内核或权重,而混合中各点之间的分离是扩张。 输出信号通过沿输入滑动时间内核并在每个位置累积混合,从输入生成。 因果卷积是内核仅混合相对于每个输出点的过去输入值,从而阻止输出“预测”未来。

堆叠扩张卷积使 TCN 能够在内核权重相对较少的输入信号中为长时间的相关性建模。 例如,下图显示了三个堆叠层,每个层中都有一个双权内核以及呈指数级增加的扩张因子:

显示堆积的、扩张的卷积层的示意图。

虚线显示网络中的路径,这些路径在 $t$ 时间结束输出。 这些路径涵盖输入中的最后八个点,说明每个输出点都是输入中最近八个点的函数。 卷积网络用于进行预测的历史长度或“回顾”称为“感受野”,完全由 TCN 体系结构决定。

TCNForecaster 体系结构

TCNForecaster 体系结构的核心是预混合和预测头之间的卷积层堆栈。 堆栈在逻辑上划分为称为块的重复单元,这些单元又由残差单元组成。 残差单元在集扩张处应用因果卷积,以及规范化和非线性激活。 重要的是,每个残差单元使用所谓的残差连接将其输出添加到其输入。 这些连接已被证明有利于 DNN 训练,可能是因为它们有助于更高效地通过网络传递信息。 下图显示了一个示例网络卷积层的体系结构,包含两个块,每个块中有三个残差单元:

显示 TCNForecaster 卷积层的块和单元结构的示意图。

块和单元的数量以及每一层中的信号通道数量控制网络的大小。 下表汇总了 TCNForecaster 的体系结构参数:

参数 说明
$n_{b}$ 网络中的块数;也称为深度
$n_{c}$ 每个块中的单元数
$n_{\text{ch}}$ 隐藏层中的通道数

感受野取决于深度参数,由公式提供,

$t_{\text{rf}} = 4n_{b}\left(2^{n_{c}} - 1\right) + 1.$

我们可以在公式方面对 TCNForecaster 体系结构进行更精确的定义。 让 $X$ 作为输入数组,其中每一行都包含输入数据中的特征值。 我们可以将 $X$ 划分为数值和分类特征数组,$X_{\text{num}}$ 和 $X_{\text{cat}}$。 然后,TCNForecaster 由公式提供,

描述 TCNForecaster 运算的公式。

其中,$W_{e}$ 是分类特征的嵌入矩阵,$n_{l} = n_{b}n_{c}$ 是残差单元总数,$H_{k}$ 表示隐藏层输出,$f_{q}$ 是预测分布给定分位数的预测输出。 为了帮助理解,下表中列出了这些变量的维度:

变量 说明 维度
$X$ 输入数组 $n_{\text{input}} \times t_{\text{rf}}$
$H_{i}$ Hidden layer output for $i=0,1,\ldots,n_{l}$ $n_{\text{ch}} \times t_{\text{rf}}$
$f_{q}$ 分位数的预测输出 $q$ $h$

在表中,$n_{\text{input}} = n_{\text{features}} + 1$,即预测器/特征变量的数量加上目标数量。 预测头在一次传递中生成的所有预测,一直到最大范围,因此 TCNForecaster 是直接预测器

AutoML 中的 TCNForecaster

TCNForecaster 是 AutoML 中的可选模型。 若要了解如何使用它,请参阅启用深度学习

在本部分中,我们将介绍 AutoML 如何使用数据生成 TCNForecaster 模型,包括数据预处理、训练和模型搜索的说明。

数据预处理步骤

AutoML 对数据执行多个预处理步骤,为模型训练做准备。 下表按执行顺序描述了这些步骤:

步骤 说明
填充缺失数据 插入缺失值和观测间隙,并选择性地填充或删除短时序
创建日历功能 使用派生自日历的特征(例如星期几)以及特定国家/地区的节假日(可选)来扩充输入数据。
将分类数据编码 标签编码字符串和其他分类类型;这包括所有时序 ID 列
目标转换 (可选)根据某些统计测试的结果,将自然对数函数应用于目标。
标准化 Z 评分规范化所有数值数据;规范化按特征和时序组执行,由时序 ID 列定义。

这些步骤包含在 AutoML 的转换管道中,因此在需要时在推理时会自动应用这些步骤。 在某些情况下,推理管道中包含步骤的反向操作。 例如,如果 AutoML 在训练期间将 $\log$ 转换应用于目标,则原始预测将在推理管道中指数化。

培训

TCNForecaster 遵循其他应用程序在图像和语言中通用的 DNN 训练最佳做法。 AutoML 将预处理的训练数据划分为示例,这些示例将被混合并组合成批。 网络按顺序处理批,使用反向传播和随机梯度下降来优化与损失函数相关的网络权重。 训练可能需要通过完整训练数据进行多次传递;每个传递称为一个时期。

下表列出并描述了 TCNForecaster 训练的输入设置和参数:

训练输入 说明
验证数据 训练中保留的部分数据,用于指导网络优化和缓解过度拟合。 由用户提供,如果未提供,则从训练数据自动创建。
主要指标 每个训练时期结束时针对验证数据的中值预测计算的指标;用于尽早停止和模型选择。 由用户选择;规范化均方根误差或规范化平均绝对误差。
训练时期 为网络权重优化运行的最大时期数。 100;自动尽早停止逻辑可能会在少量的时期终止训练。
尽早停止容忍 训练停止之前等待主要指标改进的时期数。 20
损失函数 网络权重优化的目标函数。 分位数损失平均超过第 10、25、50、75 和第 90 个百分位预测。
批大小 批中的示例数。 每个示例的维度 $n_{\text{input}} \times t_{\text{rf}}$ 用于输入,$h$ 用于输出。 根据训练数据中的示例总数自动确定;最大值为 1024。
嵌入维度 分类特征的嵌入空间的维度。 自动设置为每个特征中非重复值数的第四个根,向上舍入为最接近的整数。 阈值的最小值为 3,最大值为 100。
网络体系结构* 控制网络大小和形状的参数:深度、单元数和通道数。 模型搜索确定。
网络权重 控制信号混合、分类嵌入、卷积内核权重以及预测值的映射的参数。 随机初始化,然后针对损失函数进行优化。
学习速率* 控制在梯度下降的每个迭代中可以调整多少网络权重;动态减少近收敛。 由模型搜索确定。
信息漏失率* 控制应用于网络权重的信息漏失正则化程度。 由模型搜索确定。

标有星号 (*) 的输入由下一部分中介绍的超参数搜索确定。

AutoML 使用模型搜索方法查找以下超参数的值:

  • 网络深度或卷积块数,
  • 每个块的单元数,
  • 每个隐藏层中的通道数,
  • 网络正则化的信息漏失率,
  • 学习速率。

这些参数的最佳值可能会因问题场景和训练数据而异,因此 AutoML 在超参数值空间中训练多个不同的模型,并根据验证数据的主要指标分数选择最佳模型。

模型搜索有两个阶段:

  1. AutoML 对 12 个“标志性”模型执行搜索。 标志性模型是静态的,选择用于合理跨越超参数空间。
  2. AutoML 继续使用随机搜索在超参数空间中进行搜索。

满足停止条件时,搜索将终止。 停止条件取决于预测训练作业配置,但一些示例包括时间限制、要执行的搜索试验次数限制以及验证指标未改进时的尽早停止逻辑。

后续步骤