在电力领域,利用时间序列方法进行电力负荷预测已成为众多研究的热点。为了解决电力负荷预测准确率低的问题,本文提出了融合门控多层感知器和增强因果卷积的多通道时间序列融合网络GMEC-Informer,提高了模型捕捉长短期时间序列信息依赖的能力。为了证明本文模型的优越性,本文在广泛使用的数据集上与多个模型进行了比较,实验结果表明本文提出的GMEC-Informer具有更高的预测精度,可以为时间序列预测提供更好的研究方向。 In the field of electric power, power load forecasting using time series methods has become a hot spot in many researches. In order to solve the problem of low accuracy of power load prediction, this paper adds gated multilayer perceptual units into the Informer model, and proposes GMEC-Informer, a multichannel time-series fusion network that fuses gated multilayer perceptron and enhanced causal convolution, which improves the model’s ability to capture long-short time series information dependence. In order to prove the superiority of the model in this paper, it is compared with several models on widely used datasets, and the experimental results show that GMEC-Informer has higher prediction accuracy and can provide a better research direction for time series prediction.
在电力领域,利用时间序列方法进行电力负荷预测已成为众多研究的热点。为了解决电力负荷预测准确率低的问题,本文提出了融合门控多层感知器和增强因果卷积的多通道时间序列融合网络GMEC-Informer,提高了模型捕捉长短期时间序列信息依赖的能力。为了证明本文模型的优越性,本文在广泛使用的数据集上与多个模型进行了比较,实验结果表明本文提出的GMEC-Informer具有更高的预测精度,可以为时间序列预测提供更好的研究方向。
负荷预测,因果卷积,深度学习,注意力机制
Zhuoyuan Sun1, Xuewen Lv1,2, Jijun Wang3
1School of Computer Science and Technology, Shanghai University of Electric Power, Shanghai
2Intellqc Co., Ltd., Shanghai
3WINCLE Co., Ltd., Changsha Hunan
Received: Apr. 15th, 2024; accepted: May 24th, 2024; published: May 31st, 2024
In the field of electric power, power load forecasting using time series methods has become a hot spot in many researches. In order to solve the problem of low accuracy of power load prediction, this paper adds gated multilayer perceptual units into the Informer model, and proposes GMEC-Informer, a multichannel time-series fusion network that fuses gated multilayer perceptron and enhanced causal convolution, which improves the model’s ability to capture long-short time series information dependence. In order to prove the superiority of the model in this paper, it is compared with several models on widely used datasets, and the experimental results show that GMEC-Informer has higher prediction accuracy and can provide a better research direction for time series prediction.
Keywords:Power Forecasting, Causal Convolution, Deep Learning, Attention Mechanism
Copyright © 2024 by author(s) and beplay安卓登录
This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).
http://creativecommons.org/licenses/by/4.0/
时间序列数据在金融、气象、农业、工业和医疗等领域有着广泛应用 [
时间序列是一系列或多组随机变量,按照时间先后顺序生成,通常以固定的采样频率记录数据的变化过程。先前的时间点的数据可能包含对当前或未来时间点数据的某种规律或相关性 [
近年来,国内外学者对电力领域发电量预测问题都进行了深入研究,在电力领域,利用时间序列方法预测电力负荷已成为许多研究的热点。Jakob等人利用EMD分解原始负荷数据,然后建立PSO-SVR模型对每个分解成分进行预测,充分考虑了负荷数据的非线性、非稳态特点,提高了预测精度 [
Transformer是一种基于Google团队提出的自注意机制的Seq2Seq结构模型,该模型通常用于机器翻译 [
为了解决Transformer中并行计算带来的计算量大的问题,文献 [
虽然基于Transformer改进的模型通过堆叠模型本身或与其他模型进行组合提高了预测性能,但是Informer模型本身在时序预测方面仍存在以下问题:其单一的稀疏自注意力机制无法有效提取长序列中对应元素之间的语义相关性的要求;正则卷积只能回溯线性大小的历史信息,造成模型感受野受限导致计算冗余,并且不能保证未来信息对于时序预测结果的影响;随着网络深度的增加,在训练时可能导致网络退化、反向传播时的梯度的消失或爆炸,造成模型训练收敛速度慢的缺点,使得预测性能下降。基于以上问题,为了提高Informer的数据特征提取能力,同时防止网络结构造成未来信息与当前预测交互的问题,本文提出了一种融合门控多层感知和增强因果卷积的多模态时序融合网络GMEC-Informer。对于稀疏自注意层,融合门控多层感知单元提取自注意机制中难以捕捉的局部序列相关信息;对于稀疏自注意层间的一维CNN前馈网络,采用不同大小的增强因果卷积进行串行处理,以增强数据特征提取;其次,将残差网络(ResNet)添加到门控单元中,以防止深度学习中遇到的降级。最后在广泛使用的数据集上将模型与传统方法进行了比较,验证了其在时间序列预测中的有效性。
综上所述,为进一步提升电力功率预测的精度,本文的贡献可以总结如下:1) 通过多层门控感知单元补充单个注意力机制,并且可以扩展网络层的宽度,避免了模型退化,并可以检测各种尺度的特征信息;2) 将增强因果前馈层引入特征提取映射以防止未来信息泄露,提升了模型对时序数据处理的匹配度;3) 使用本文模型与其它几种常用的电力负荷预测模型在广泛使用的数据集上进行了比较。实测数据的结果表明,与过去常见的模型相比,本文模型在预测任务上具有明显的优势,并获得了更显著的提升。
目前,传统的Transformer在自注意力机制的实现上存在复杂度高、堆叠层内存瓶颈以及预测输出速度较慢等问题。为了应对这些问题,Informer针对时序预测领域中Transformer存在的问题进行了改进。该模型引入了稀疏概率自注意力(ProbSparse Self-attention)机制,以代替传统的自注意力机制。通过精选最为关键的查询向量(query),Informer实现了时间复杂度和内存使用量都为O (LlogL),从而显著减少了网络的规模。此外,Informer还引入了自注意力蒸馏(Self-attention Distilling)操作,通过正则卷积和池化操作来降低维度和网络参数数量。在解码操作中,Informer创造性地提出了生成式解码器,能够一次性生成完整的预测序列,避免了逐步预测所带来的误差累积,从而有效缩短了预测时间。Informer整体架构如图1所示。
图1. Informer模型整体架构
对于时间序列类型的预测问题,数据遵循位置有序、与时间强相关的特点,因此如何使模型学习到序列数据的位置信息对预测准确度至关重要。在RNN类模型中,通过循环结构和时间戳来捕捉时间序列的规律性;而Transformer则利用注意力机制和时间戳来捕捉当前位置的上下文。在处理时间序列预测问题时,若需要捕捉数据的长期模式,则必须考虑全局信息,例如不同级别(周、月、年)的时间戳以及突发事件(节假日、事件)的时间戳。然而,由于自关注点积计算中涉及多类型特征的融合,这种信息可能导致潜在的精度下降 [
首先,将电力负荷数据映射到高维空间,这是通过对原始数据进行一维卷积获得的。接着,进行序列位置编码,该编码方式对应Transformer模型中的位置编码。第三部分涉及数据的时间戳信息,这一信息通过全连接层转换为高维表示。最终,将上述三部分进行整合,得到最终的模型输入 [
Informer中编码器是由多头稀疏概率自注意力(Multi-head ProbSparse Self-attention)机制和蒸馏操作堆叠而成的。稀疏概率自注意代替标准自注意来接受长序列数据,通过将输入序列映射到Query、Key和Value空间,计算元素之间的相似度并分配注意力权重,实现了元素之间的关联性建模。在Informer中,通过稀疏概率注意力机制,可以将每个k设置为只关注主查询,如等式(1)所示。
ProbAttention ( Q , K , V ) = softmax ( Q ¯ K T d ) ∗ V (1)
图2. 输入数据信息编码
其中 Q ( Q ∈ R L Q × d ) 表示查询矩阵, K ( K ∈ R L K × d ) 表示键矩阵,V表示值矩阵,对Q稀疏化之后的矩阵,具有与矩阵q相同的大小,其仅包含稀疏度量 M ( q i , K ) 中自定义的极大相关查询,其中 M ( q i , K ) 的公式如等式(2)所示。
M ( q i , K ) = l n ∑ j L k e q i k j T d − 1 L K ∑ j L k q i k j T d (2)
其中 Q ( Q ∈ R L Q × d ) 表示查询矩阵, K ( K ∈ R L K × d ) 表示键矩阵,V表示值矩阵,对Q稀疏化之后的矩阵,具有与矩阵q相同的大小,其仅包含稀疏度量 M ( q i , K ) 中自定义的极大相关查询,其中 M ( q i , K ) 的公式如等式(2)所示。
Informer模型在每个自注意块之间执行自注意蒸馏操作,这一操作的目的是选择主要的自注意力信息,以减小存储器和网络的占用大小,从而降低后续计算复杂度和开销。从第j层到第(j + 1)层进行蒸馏操作的过程如等式(3)所示。
X l t = MaxPool ( ELU ( Convld ( [ X l − 1 t ] P B ) ) ) (3)
其中 [ X l t ] P B 表示多头稀疏概率自注意块中的基本操作。Informer采用了卷积核为3的1D-CNN提取负载特征,但单一大小的卷积核难以捕捉不同尺度的时序信息,影响了数据特征的评价。
门控多层感知单元GMLP (Gated Multilayer Perceptron)是一种用于分析时间序列的神经网络架构,其特点在于能够有效地捕获局部空间尺度的特征 [
图3. 门控多层感知单元内部结构
门控多层感知单元基本层由具有相同大小和结构的L个块的堆叠组成。设 X ∈ R n × d 是序列长度n和维数d的符号表示。每个块定义为:
Z = σ ( X U ) , (4)
Z ˜ = s ( Z ) , (5)
Y = Z ˜ K (6)
其中σ是激活函数,通常使用GeLU。U和K限定长度等于通道尺寸的线性投影,并且 s ( · ) 是捕获空间交互的层。
其中空间投影单元是由以下定义的空间交互层:
s ( Z ) = Z ⊙ f W , b ( Z ) (7)
其中*表示逐元素乘法,并且f是定义为以下的线性投影:
f W , b ( Z ) = W Z + b (8)
增强因果前馈(Enhanced Causal Feedforward Unit)是一种用于时间序列处理的多层卷积神经网络结构,适用于时间序列建模任务 [
本文在增强因果前馈层中,首先使用膨胀卷积操作来提取处理后的输入序列中的长期依赖特征。膨胀卷积核的设置允许模块在不增加网络深度的情况下,显著扩展感受野,从而更好地理解时间序列中不同时间尺度上的特征。随后,在膨胀卷积的基础上引入因果卷积操作,确保模块满足因果关系的要求。因果卷积只考虑输入序列中当前时间步之前的信息,不会使用未来的信息,因此在时间序列建模中非常有效。通过适当的填充设置,我们可以实现因果卷积,将卷积核限制在右侧,只考虑过去的信息,实现了模型避免未来信息的干扰。
最终,如图4所示的增强因果前馈模块将膨胀卷积和因果卷积的输出进行组合。这种组合允许模块既能够捕捉长期依赖特征,又具有因果性,确保了其在时间序列预测等任务中长期依赖捕捉的高效性和准确性。
图4. 增强因果卷积结构
Informer模型中蒸馏操作将自注意力块与正则卷积堆叠在一起,使感受野受限导致重复无意义的计算,又因为缩减蒸馏操作前,单纯的使用稀疏的自注意力机制会使得捕捉时间序列相关信息的能力下降,同时由于堆叠产生的深度增加引起了网络退化。因此Informer虽然在捕获长序列输入信息方面拥有较强的能力,预测性能也优于现有主流预测模型,然而该模型应用于时序预测时仍存在不足。
本文提出融合门控多层感知单元和增强因果的多模态时序融合网络GMEC-Informer,并针对其内部结构进行优化,将原编码器中单一的注意力机制替换为残差的门控多层感知单元-注意力机制并联的多模态时序特征提取模块,并在编码器块之间增加增强因果卷积提取时间序列长期依赖关系,GMEC-Informer模型整体架构如图5所示。
为了有效比较模型性能提升的有效性,GMEC-Informer在电力变压器油温时间序列数据预测数据集上进行了实验,使用了Informer模型的基准ETT数据集进行评估。ETT (电力变压器温度)是由Zhou等人创建的一个独立数据集,旨在研究长短时序列预测(LSTF)问题。该数据集收集了中国不同县市的两年数据,创建了小时级数据集(ETTh)。每个数据点包含目标变量“油温”以及高有用负荷(HUFL)、高无用负荷(HULL)等六个功率负荷特性。
图5. GMEC-Informer编码器结构
在本文的研究中,采用ETTh1数据集进行了实验,并将其划分为三个部分,即训练集、验证集和测试集,划分比例分别为7:2:1。这种数据集划分策略的选择旨在支持对模型性能的全面评估,并确保实验结果的可靠性。
为了与本文方法进行比较,本文选择了六种不同的时间序列模型作为参照,分别是RNN、ARIMA、GRU、LSTM、Informer以及包含了标准自注意力机制的Informer+,以评估本文方法在电力变压器油温时间序列数据预测任务中的性能。这六种模型代表了传统的统计方法,以及深度学习方法,提供了广泛的比较基准,有助于全面评测本文方法在该领域的效果。
本研究在Python 3.7平台上进行了模型开发,并使用了PyTorch1.8.0框架来构建模型。由于训练过程中涉及到大量的矩阵运算,研究选择了GPU来加速模型的训练速度,所使用的GPU型号是GeForce RTX 2060,其显存容量为6 GB。
本文模型处理前均选用了最大最小值归一化方法对数据集进行预处理,有助于将数据缩放到一个统一的范围内,以便模型更好地进行训练。考虑到内存和精度的平衡,批容量均采用为32。初始学习率采用1e−4,优化器采用Adam。
本实验分别使用如下公式中定义的两个评价指标——平均绝对误差(MAE)和均方误差(MSE)。
MAE = 1 n ∑ i = 1 n | y − y ^ | (9)
MSE = 1 n ∑ i = 1 n ( y − y ^ ) 2 (10)
其中,y表示预测数据的大小, y ^ 表示实际值,n表示预测值的个数。以上两个评价指标数值越低表示模型预测性能越好。
在进行实验分析之前,首先需要进行模型编码器端的输入序列长度的比较和分析。适当的输入序列长度可以帮助模型更好地捕捉时间序列数据之间的信息关联,从而优化模型性能。通过分析和优化模型的输入序列长度,可以进一步提高后续预测分析的精度。
本实验以MSE作为性能评估指标,分别采用不同天数时间窗口对应编码器输入序列长度为{24, 48, 96, 168, 366, 720}来评估模型的性能。如下图6显示了本文模型在不同输入序列长度下的性能评估结果对比。实验结果表明,在编码器的输入序列长度为96时,模型的预测性能表现最佳。因此,在后续实验分析中,适合采用输入序列长度为96的编码器配置。
图6. 编码器输入序列长度性能对比
解码器的输入序列长度和编码器一样可以对模型的预测性能产生影响。在本实验中,同样以MSE作为性能评估指标,采用不同的解码器输入序列长度{24, 48, 96, 168, 288, 360}来评估模型的性能。如下图7展示了本文模型在不同解码器输入序列长度下的性能评估结果对比。
图7. 解码器输入序列长度性能对比
根据实验结果,可以得出结论,当解码器的输入序列长度为24时,模型的预测性能最为优秀。因此,在后续的实验分析中,将采用编码器输入长度为96和解码器输入长度为24的实验参数配置,以保证模型的预测性能。
为验证模型预测性能,本实验使用RNN、ARIMA、LSTM、GRU、Informer、Informer+等6种预测模型在不同预测步长下与本文模型的预测性能对比。表1中呈现了所有参照模型在ETT数据集上的多变量对单变量评估结果,其中预测时间窗口逐渐扩大。为了更明显地突出显示不同预测期的最佳结果,表中采用了粗体的方式对模型在同个评价指标上的最佳结果进行标注,并对该方法的有效性范围进行了全面检验。
模型 | 预测步长 | ||||||
---|---|---|---|---|---|---|---|
24 | 48 | 96 | 168 | 366 | |||
GMEC-Informer | MSE | 0.0995 | 0.1782 | 0.1654 | 0.1603 | 0.2475 | |
MAE | 0.2535 | 0.3608 | 0.3398 | 0.3350 | 0.4252 | ||
Informer | MSE | 0.1244 | 0.2229 | 0.2607 | 0.3307 | 0.2901 | |
MAE | 0.2879 | 0.3991 | 0.4313 | 0.5014 | 0.3989 | ||
Informer+ | MSE | 0.1126 | 0.2739 | 0.2415 | 0.3772 | 0.4058 | |
MAE | 0.2725 | 0.4518 | 0.4133 | 0.5360 | 0.5632 | ||
LSTM | MSE | 0.1214 | 0.1892 | 0.2034 | 0.2133 | 0.3235 | |
MAE | 0.2638 | 0.1761 | 0.3472 | 0.3513 | 0.4473 | ||
GRU | MSE | 0.1963 | 0.2048 | 0.2297 | 0.2426 | 0.2614 | |
MAE | 0.3521 | 0.3592 | 0.3790 | 0.3902 | 0.4061 | ||
ARIMA | MSE | 0.1310 | 0.2246 | 0.1680 | 0.3565 | 0.3678 | |
MAE | 0.2816 | 0.3709 | 0.3475 | 0.3904 | 0.4037 | ||
RNN | MSE | 0.1926 | 0.2194 | 0.3638 | 0.4331 | 0.6010 | |
MAE | 0.3339 | 0.3498 | 0.4473 | 0.4709 | 0.5645 | ||
表1. 各个模型在不同预测步长上的误差表现
通过观察表格可以清晰地看出,通过引入GMLP和残差网络,本文模型能够联合使用自注意力机制,捕捉多尺度时间信息,从而获取不同时间尺度上的关键信息。另外,增强因果卷积网络的引入有助于保持时间序列信息在参照窗口内的稳定性,避免未来时间信息对当前预测产生不良影响。
因此,本文提出的GMEC-Informer模型具有以下显著优点:
1) GMEC-Informer模型的卓越之处,与其他方法相比,在不同数据集上,GMEC-Informer模型展现出更出色的预测性能,其误差较低的结果显著突出了其优势。这进一步突显了GMEC-Informer在时间序列预测领域的独特性和卓越性能,为提升预测准确性和可靠性提供了有力支持。
2) 对于MAE的评价指标,本文采用的GMEC-Informer模型在此评价指标上的最优性能个数均大于其他数理统计和深度学习模型,
3) 以编码器-解码器为基本架构的GMEC-Informer模型预测性能显著优于递归神经网络LSTM模型。该方法的MSE分别降低了18.03% (24)、5.81% (48)、18.68% (96)、24.85% (366)和23.49% (720)。结果表明,基于编码器-解码器和自注意机制的模型比基于RNN的模型具有更好的预测能力。
相同的数据集下,GMEC-Informer模型在短期负荷预测方面表现卓越,相较于中长期负荷预测。这一趋势可归因于以下因素:在短期负荷预测中,影响负荷变化的因素相对较少,而在中长期负荷预测中,涉及的变量更加繁多,包括但不限于环境温度和天气变化等,这些因素对预测准确性具有显著影响。
要研究本文模型中各个组件部分对预测性能的影响,以GMEC-Informer为基础,进行了消融实验。在实验过程中,移除多尺度空间信息提取模块的模型指代为no GMLP,同时移除增强因果卷积的模型指代为no EC。此外,GMEC-Informer与no GMLP、no EC以及Informer在不同条件下的性能也在表2中进行了对比分析。
模型 | 预测步长 | |||||
---|---|---|---|---|---|---|
24 | 48 | 96 | 168 | 366 | ||
GMEC-Informer | MSE | 0.0995 | 0.1783 | 0.1654 | 0.1603 | 0.2475 |
MAE | 0.2535 | 0.3608 | 0.3398 | 0.3350 | 0.4252 | |
no GMLP | MSE | 0.1187 | 0.1965 | 0.1984 | 0.3021 | 0.3946 |
MAE | 0.2860 | 0.3716 | 0.3750 | 0.4745 | 0.5578 | |
no EC | MSE | 0.1147 | 0.1952 | 0.2367 | 0.3012 | 0.2960 |
MAE | 0.2738 | 0.3688 | 0.4167 | 0.4775 | 0.4698 | |
Informer | MSE | 0.1244 | 0.2229 | 0.2607 | 0.3307 | 0.2901 |
MAE | 0.2879 | 0.3991 | 0.4313 | 0.5014 | 0.3989 |
表2. 不同模块消融实验对比
在消融实验中,GMEC-Informer模型相较于Informer模型在评价指标上只有一个指标稍有下降,在其他所有指标上都表现出了最优水平。这表明GMEC-Informer模型在多个方面都取得了明显的改进,特别是在那些被优化的指标上。以下是对这一结果的一些总结和分析:
GMEC-Informer模型在多个指标上表现最优,这表明该模型总体性能提升,在处理时间序列预测任务时,具有更好的综合性能。这对于应用于实际场景中的时间序列问题来说,具有非常积极的意义。
尽管GMEC-Informer在大多数指标上超越了Informer模型,但在预测步长为366时指标稍微差于Informer。这种情况可能是由于预测时间步长的增加,模型预测性能均出现明显下降和不稳定导致的。
在时间序列任务中,不同的指标可能对不同的应用场景具有不同的重要性。因此,在选择最佳模型时,需要考虑到具体应用的需求。GMEC-Informer模型在使用MSE作为评价指标的多数情况下表现优越,对于不同的预测场景,则可以权衡模型选择。
本研究创新性地提出了一种融合门控多层感知机和增强因果卷积的多模态时序融合网络——GMEC-Informer,并用于电力负荷预测任务。该模型的优势体现在两方面:相较于传统的全局注意力模型,GMEC-Informer采用门控多层感知单元,能够更为精准地捕捉电力负荷随时间演变的局部时空模式,即动态变化中蕴含的局部特征及其在时空上的相互作用;通过引入增强因果前馈层,模型能够在信息传递过程中避免与未来信息发生不必要的交互,确保了预测仅基于过去已知数据,有利于提升预测的稳健性和可信度。
实验结果证实了GMEC-Informer在处理电力变压器油温数据集时,能够成功捕获电力负荷复杂的时空依赖关系,展现出优异的预测性能,优于现有的同类模型。这不仅验证了模型的有效性,也为电力系统的高效运营与管理提供了强有力的支持工具。
未来研究将继续探索时间序列信息融合的先进机制,旨在将这些方法与注意力机制深度整合,以进一步提升模型在处理长预测步长任务时的精度。此外,还计划将GMEC-Informer拓展至其他类型的时间序列预测任务,以验证其在不同应用场景中的普适性和适用性,为更广泛领域的预测问题提供高性能解决方案。
孙卓远,吕学文,王继军. 基于门控多层感知机和Informer的多通道电力负荷预测Multi-Channel Power Load Forecasting Based on Gated Multilayer Perceptron and Informer[J]. 人工智能与机器人研究, 2024, 13(02): 375-387. https://doi.org/10.12677/airr.2024.132039
https://doi.org/10.1016/j.compag.2023.108097
https://doi.org/10.1007/s00521-022-07536-3
https://doi.org/10.1155/2016/9895639
http://kns.cnki.net/kcms/detail/10.1289.TM.20230601.1229.002.html, 2024-02-20.
https://doi.org/10.1016/j.ijforecast.2019.07.001
https://doi.org/10.3390/electronics12132811
https://doi.org/10.48550/arXiv.2108.10052
https://doi.org/10.1103/PhysRevE.105.044411
https://doi.org/10.1609/aaai.v35i12.17325
https://doi.org/10.3390/en16073086