1. 前言
21世纪以来,随着全球对温室气体排放的控制与减排政策不断加强,碳交易市场作为创新的环境经济政策工具,对推动企业提高资源利用效率、促进节能减排具有显著作用。中国建立碳交易市场,既是响应国际社会减排要求的重要举措,也是实现国内“双碳”目标的关键政策之一。然而,碳交易市场的稳定性和效率性在很大程度上取决于碳价格的合理预测与调控,这直接关系到市场的健康发展和政策的有效实施[1][2]。
碳价格预测对于完善市场机制、指导政策制定和辅助投资者决策具有重要的理论和实践价值。准确的碳价格预测能够帮助政府制定合理的碳排放配额分配政策,引导企业进行有效的节能减排投资,同时为市场参与者提供决策支持,降低交易成本和风险[3][4]。
尽管已有研究在碳价格预测方面取得了一定的进展,但仍存在一些亟待解决的问题。现有模型往往忽视了碳价格数据的非线性、高波动性等复杂特征,导致预测精度不足。此外,随着人工智能技术的快速发展,如何有效融合传统统计方法与新兴的机器学习算法,提高预测模型的准确性和鲁棒性,成为了当前研究的热点和难点[5][6]。
针对现有研究的不足,本研究提出了一种融合自适应噪声完备集合经验模态分解(CEEMDAN)和卷积神经网络–门控循环单元–注意力机制(CNN-GRU-Attention)的复合型碳价格预测模型。本研究的创新之处在于:首先,通过CEEMDAN分解技术对碳价格数据进行预处理,有效提取不同时间尺度上的特征信息,增强了模型对数据复杂性的适应能力;其次,利用CNN-GRU-Attention模型结合了卷积神经网络强大的特征提取能力、GRU网络对时间序列的捕捉能力以及注意力机制对关键历史特征的识别能力,提高了模型的预测精度和实际应用潜力。本研究不仅为碳市场建设提供了新的理论支持和实践指导,也为碳价格预测领域的学术探索提供了新的视角,有望弥补现有研究的不足之处[7]-[10]。
2. 理论准备
2.1. CEEMDAN分解
2.1.1. CEEMDAN
自适应噪声完备集合经验模态分解(CEEMDAN)并不是在EEMD与CEEMD方法上改进而来的,而是从EMD的基础上加以改进,但是借用了EEMD方法中加入高斯噪声和通过多次叠加并平均以抵消噪声的思想。他们的区别简单来说,EEMD方法是将添加白噪声后的m个信号直接做EMD分解,然后相对应的IMF间直接求均值。
CEEMDAN方法是每求完一阶IMF分量,又重新给残值加入白噪声(或白噪声的IMF分量)并求此时的IMF分量均值,并逐次迭代。具体分解过程可分为三步,第一步对原始信号复制m次并分别加入随机白噪声,形成m个新的信号;第二步分别进行常规EMD分解,将每个信号分解出的第一个IMF序列求平均后得到第一个IMF序列;第三步将原始序列减第一个IMF序列得到新序列;第四步重复上述过程,得到所有的IMF序列和残差序列。相对于EEMD方法,它有以下几个优势:一是完备性,即把分解后的各个分量相加能够获得原信号,CEEMDAN在较小的平均次数下就可以有很好的完备性,而对于EEMD方法,较小的平均次数时,重构误差较大,完备性不强;二是计算速度更快,正是因为CEEMDAN相较于EEMD该方法不需要太多的平均次数,可以有效提升程序运算速度;三是模态分解结果更好,EEMD分解可能会出现多个幅值很小的低频IMF分量,这些分量对于信号分析意义不大,CEEMDAN方法可以减少这些分量数目。
CEEMDAN算法的过程如下:
(1) 对于原始信号x(t),向其中添加标准正态分布白噪声。设ωi(t)为高斯白噪声,ε为噪声标准差。假设总共添加了I次白噪声,则第i个信号序列xi(t)可以表示为:
(2) 然后对每一个重构后的信号
进EMD分解,则可以得到IMFij,表示第i个重构信号分解后得到的第j个IMF分量。将这些IMFij中的第一个分量即IMFi1进行平均,可以得到CEEMDAN分解的第一个模态分量为:
计算第一阶段的残差r1(t):
(3) 设Ek(·)为通过EMD分解获得的第k阶模态分量,对r1(t)构造新序列Lr1(t) +ε1E1(ωi(t)),对该组新序列进行EMD分解,提取所有分解结果当中的第一个分量即E1(r1(t) +ε1E1(ωi(t))),求取均值即可得到第二个模态分量:
计算第二阶段的残差r2(t):
(4) 当得到k个IMF分量,第k个余量信号可以计算为:
则第k+ 1个模态分量表示为:
(5) 重复式上上个式子,直到残余成分不再满足分解条件。最后,原始信号x(t)被分解为下式,其中R为最终的残差:
通过计算步骤可以看出,CEEMDAN算法在计算IMF2及之后的分量时并不通过直接向原始信号中添加白噪声的方式,而是对上一步的残余信号添加正负等幅值自适应噪声对,故而不会对原始信号的准确性造成干扰。另一方面,向残余信号中添加的也并非普通的高斯噪声,而是经过EMD分解的分量,因此具有更小的标准差。
综上,CEEMDAN不仅能把分解后的各个分量相加能够获得原信号,在较小的平均次数下就可以有很好的完备性,而且它在分解过程中添加的噪声对不会干扰分解质量,同时具有较高的分解效率。
2.1.2. 排列熵
熵(Entropy, En)是一种较为流行的复杂度计算指标,常被用来描述时间序列系统中的混乱程度。20世纪40年代,香农在信息论中引入熵概念,创建了信息熵,以概率分布的形式对系统的不确定性进行衡量,提出后被应用到各个领域。随后以信息熵为基础的各种熵以不同形式逐渐涌现,排列熵即为其中之一,其基本思想是输入序列的顺承关系,具有原理简单、计算速度快、抗噪声能力强等优点,因此将排列熵应用于对时间序列复杂度的检测可以获得较好的效果。假设
为一组时间序列信号,则排列熵的具体算法步骤描述如下:
对一维信号序列
进行相空间重构,得到重构矩阵Y为:
式中:
K——代表重构向量的个数(
);
M——代表嵌入维数;
τ——代表延迟时间。
矩阵Y中的每一行
表示一个重构分量,按照升序方式对每个重构
分量中的元素进行排序可得式(3-15)。
式中,
分别代表重构分量中各个元素所在的列。
若存在
且
的情况,则按列值序号大小进行排序,即当
时,规定
。
因此,对于Y矩阵中的每一个重构分量都可以得到对应的一组符号序列,如下式所示。
式中,
,且
,m维相空间总计可以映射出m!中不同符合序列
,符合序列s(l)仅仅是其中一种排列。
若k中不同符号序列出现的概率分别为
,则原始信号序列
的排列熵表达式如式()。
一般将其进行归一化处理,得到最终排列熵值如式()所示。
式中,HPE的取值范围为[0,1],其值越小代表信号序列越简单,随机性越低;反之,说明子序列越规律,随机程度较低。
2.2. CNN-GRU-A模型
2.2.1. 卷积神经网络(CNN)
卷积神经网络(CNN)是一种经常用于图像、文本和信号输入的深度学习算法,由提取对象特征的堆叠层组成。CNN 由卷积层、池化层和全连接层组成。卷积层是CNN中特征高效提取的关键,在本文中卷积层被主要应用于对光伏功率相关数据的特征提取。下图1为CNN的基本架构。
Figure1.CNN basic architecture
图1.CNN基本架构
2.2.2. 门控循环单元(GRU)
GRU是长短期记忆网络(LSTM)的一种变体,在学术界得到广泛应用。GRU采用复位门和更新门来克服长期依赖问题,并结合数据单元和隐藏层状态来解决梯度消失的问题。相较于LSTM,GRU网络仅含有两个门结构,减少了训练参数的数量。这使得GRU网络更易于收敛,减轻了LSTM网络的过度拟合问题,同时保持了LST网络在预测任务中的卓越性能。下图2为GRU神经单元的结构。具体计算公式如下:
式中:
表示更新门,主要用于遗忘和记忆;
为复位门,用于确定是否将当前状态与先前信息合并;
表示中间记忆状态;
和
分别为更新门和复位门的连接权值;σ和tanh为激活功能。
Figure2.Structure diagram of GRU neural unit
图2.GRU神经单元的结构
2.2.3. 注意力机制(Attentions)
若序列数据过长,其长期学习能力会随着训练轮数的增加而逐渐衰减,因而很难保留全部有用信息。Attention机制是模仿人脑注意力的资源分配机制而提出的,人的大脑信号处理机制在当前状态会重点关注一些目标区域,并且减少或者忽略对其它区域的关注。这样的机制会使网络在信息处理上获得更高的效率和更高的准确性。在深度学习中,Attentions机制的核心思想是巧妙合理地改变对信息的注意力,忽略无关信息并放大关键信息。
Attentions机制的结构如下图3所示,相比于简单解码器只通过一个统一的特征向量来计算隐含状态,Attention机制在解码部分的每一个时间输入不同的。根据输入信息来计算概率分布,再进行加权平均。同时,Attentions机制当前时刻的计算不依赖于前一时刻的计算结果,因此它可以进行并行处理,这是单一的RNN结构无法解决的。
Figure 3.Attention mechanism structure diagram
图3.Attention机制结构示意图
3. 基于CEEMDAN分解和CNN-GRU-Attention加权组合预测建模
3.1. 实验环境
文中采用编程语言Matlab对深圳市碳价格数据进行CEEMDAN分解以及采用编程语言Python编写并开源基于Keras人工神经网络库的TensorFlow框架。实验平台配置为:AMD Ryzen 7 5800H处理器,3.20 GHz*,16.0 GB内存,Windows10专业版64位(DirectX 64)操作系统。
3.2. 实验数据
选取深圳区域碳市场的碳配额价格数据进行检验,原始碳日价格序列来源于国泰安数据库,时间窗为2013年8月5日~2023年1月12日,数据以天级别进行更新,剔除非交易日数据,共计4608条数据。碳价格数据包括开盘价、最高价、最低价、成交价、收盘价,均以人民币元为单位。其中,收盘价不仅可以展现当日交易行情,还能为后一交易日的价格提供参考依据,是市场投资者,尤其是短期投资者重点关注的价格指标,因此,收盘价具有重要观测意义,本文选取碳价格的日收盘价进行预测。
3.3. 总体研究思路
为了提高碳价格预测的精度,本文提出一种基于CEEMDAN分解和CNN-GRU-Attention组合模型的碳价格预测方法。该方法能够有效地提升预测的准确性。预测模型的流程如下图4所示,
Figure4.Prediction flow chart based on CEEMDAN decomposition and CNN-GRU-Attention combined model
图4.基于CEEMDAN分解和CNN-GRU-Attention组合模型的预测流程图
3.4. 模型结构、参数设置和训练过程
模型结构包括输入层、两个卷积层、一个池化层、一个全连接层、一个输出层和一个注意层。CNN层卷积核设置为64,内核大小为12,并添加最大池化层,激活函数为ReLU。GRU网络每层的隐藏单元个数为60,并加入Dropout防止过拟合,Dropout值设置为0.3。
训练过程中,首先将数据输入模型,通过CNN层提取特征,然后送入GRU层捕获长期依赖关系。注意层学习隐藏层状态的重要性,最后通过全连接层得到碳价格预测结果。
具体步骤如下:
1) 自适应噪声完备集合经验模态分解数据。
由于碳价格数据受到众多外在客观因素的影响,其往往呈现出高随机性、高波动性的复杂变化特征,增加了模型的预测难度。为了最小化噪声信号对预测结果的干扰,采用CEEMDAN分解算法对数据序列进行平滑处理是一种可行的方法,可以有效提升程序运算速度。CEEMDAN对碳价格序列进行分解,结果如图5所示:
Figure5.CEEMDAN decomposition results of carbon price
图5.碳价格CEEMDAN分解结果
从上图可以看出,CEEMDAN分解得到了11组IMF分量和一组RES分量,各个序列按频率从高到低依次排列,而且不同频率的序列波动具有一定的规律性。每个子序列中存在多时间尺度信号的现象基本消除,单一频率的数据特征将更有利于模型学习,获得更好的预测精度和稳定性。
2) 排列熵重构。
排列熵是一种评价时间序列信号复杂度的方法,可以定量的对一定长度的时间序列进行检测。采用其对CEEMDAN分解得到的多个子序列分量进行复杂度分析,计算得到的排列熵值越大,说明序列波动越大;排列熵值越小,说明序列随机性越低,然后根据排列熵值相近的程度对子序列分量进行合并。
在利用排列熵进行序列复杂度计算时,需对相空间重构时的两个参数:嵌入维数m、延迟时间进行选择。若m取值较大,不仅会增加计算时间,同时降低了对信号微小变化的敏感性;若m取值较小,重构向量的状态数减少,将会导致对信号动力学突变的检测精度下降。Bandt等[11]建议m取3~7为宜,本文选用的嵌入维数m= 5。郑小霞等[12]指出,当延迟时间τ在1~6之间变化时,排列熵波动较小,因此本文τ的取值为1。
对上一小节CEEMDAN分解后的各个子序列进行排列熵值计算,归一化后的结果如表1所示。同时依据所得数据绘制不同子序列分量的排列熵值分布图,如表1所示。
Table1.The permutation entropy of each subsequence component
表1.各个子序列分量排列熵值
序列分量 |
PE值 |
IMF1 |
0.95576 |
IMF2 |
0.8671 |
IMF3 |
0.8813 |
IMF4 |
0.70186 |
IMF5 |
0.50358 |
IMF6 |
0.35222 |
IMF7 |
0.26062 |
IMF8 |
0.21189 |
IMF9 |
0.17216 |
IMF10 |
0.15906 |
IMF11 |
0.15271 |
RES |
0.10211 |
结合表1和图4及图5可知,随着序列号的增加,每个模态分量的PE值在逐渐减小,说明其复杂程度在逐步降低。通过比较归一化后的各个序列间熵值的接近程度,将归一化排列熵值相差在0.2以内的序列进行合并重组,残余分量是一个单调曲线,可以合并在低频分量中。从表1可以看出,其中IMF1、IMF2、IMF3、IMF4的排列熵值相差最大为0.1983,可以合并为一组;IMF5序列的排列熵值与其余分量都相差较大,则单独成为一组;IMF6、IMF7、IMF8复杂度相近,可合并为一组;最后将剩余的复杂度都相对接近的IMF9~IMF11分量和RES分量叠加构成新的一组。经过重构后得到4组新的子序列,后续预测模型的数量也从12次降为了4次,整体模型的计算效率得到提高。
3) 模型预测。
将分解后的对每个重构子序列放入CNN-GRU-Attention组合模型中分别进行预测;CNN-GRU结合了CNN和GRU的优点,并在此基础上加入注意力机制,提出来CNN-GRU-Attention组合神经网络模型,该模型包括一个输入层、两个卷积层、一个池化层、一个全连接层、一个输出层和一个注意层。设置一维CNN层卷积核为64,内核大小为12,并在一维CNN中添加最大池化层,激活函数为ReLU。卷积层和池化层中的stride = 1。设置GRU网络,每层的隐藏单元个数为60,并在GRU网络中加入Dropout,设置其值为0.3,应用Dropout层可以防止模型过拟合。本文提出的基于注意力机制的CNN-GRU模型具体实施步骤如下:首先,将数据输入模型,通过CNN的输入层、卷积层和池化层以提取输入数据的特征,将得到的特征展平成一维阵列,作为时间序列输入GRU层。其次,CNN层的输出被送入第一个GRU层,该层捕获变量之间的长期依赖关系,并将每个GRU层的所有隐藏状态作为注意层的输入,注意层能够学习这些隐藏层状态的重要性。最后,通过全连接层得到碳价格预测结果,如下图6所示。
Figure6.Prediction results of CNN-GRU-Attention model
图6.CNN-GRU-Attention模型预测结果
4) 参数选择。
为了评估CNN-GRU-Attention模型的预测精度,选用均方根误差(RMSE)、平均绝对百分误差(MAPE)、平均绝对误差(MAE)和拟合度(r2)对算法模型进行评价。其计算公式如下:
式中,zt和xt分别表示第t次测试的真实值和算法模型输出值,m为测试总次数。
3.5. 实验结果及分析
为了清晰地呈现实验结果,本研究采用表格形式展示了CNN-GRU-Attention模型与现有模型(GRU模型和CNN-GRU模型)在碳价格预测方面的对比。表2展示了模型的拟合度和各项评价指标的具体数值,突出了本模型在预测精度上的优势。
Table 2.Comparison of prediction errors of different models
表2.不同模型预测误差对比
评价指标/Evaluation Indicators |
GRU Model |
CNN-GRU Model |
CNN-GRU-Attention Model |
MAE (Mean Absolute Error) |
1.034 |
0.309 |
0.151 |
MAPE (Mean Absolute Percentage Error) |
66.179 |
41.203 |
13.014 |
RMSE (Root Mean Square Error) |
1.333 |
0.505 |
0.192 |
R2(Coefficient of Determination) |
0.913 |
0.988 |
0.998 |
*注:MAE表示平均绝对误差,MAPE表示平均绝对百分误差,RMSE表示均方根误差,R2表示拟合度。
从表2中可以看出,CNN-GRU-Attention模型在MAE、MAPE和RMSE等评价指标上均优于GRU模型和CNN-GRU模型。特别是,CNN-GRU-Attention模型的MAE为0.151,MAPE为13.014,RMSE为0.192,显著低于其他两种模型,显示出更高的预测精度。此外,该模型的R2值为0.998,接近完美拟合,进一步证明了其在拟合度上的优势。
Table 3.Comparison of prediction errors between original data sequence and decomposed reconstructed data sequence
表3.原始数据序列与分解重构数据序列的预测误差对比
评价指标/Evaluation Indicators |
Original Data Sequence |
Decomposed Reconstructed Data Sequence |
MAE (Mean Absolute Error) |
4.338 |
0.151 |
MAPE (Mean Absolute Percentage Error) |
25.923 |
13.014 |
RMSE (Root Mean Square Error) |
6.256 |
0.192 |
R2(Coefficient of Determination) |
0.858 |
0.998 |
从表3中可以看出,经过CEEMDAN分解重构后的数据序列在CNN-GRU-Attention模型中的预测误差明显降低,这表明CEEMDAN分解能够有效提取碳价格数据中的关键特征,提高模型的预测精度。
综上,基于CEEMDAN分解和CNN-GRU-Attention组合预测模型的各项评价指标均优于其他模型,可以同时显示预测准确性和稳定性。
3.6. 模型探讨
CNN-GRU-Attention模型的优势在于其综合运用了多种先进的机器学习技术。CEEMDAN分解技术的应用提高了模型对碳价格数据中不同时间尺度特征的提取能力。CNN的引入增强了模型对局部特征的捕捉,而GRU网络则有效处理了时间序列数据的长期依赖问题。此外,注意力机制的加入使得模型能够更加关注对预测有重要影响的历史信息,进一步提升了预测的准确性。
尽管CNN-GRU-Attention模型在实验中表现出色,但仍存在一些局限性。首先,模型的复杂性较高,需要大量的训练数据和计算资源。其次,模型对输入特征的敏感性较高,对噪声和异常值的处理能力有待提高。此外,模型的解释性较差,对于为何做出特定的预测缺乏直观的理解。模型的泛化能力需要在更多的碳交易市场中进行验证。模型对于非市场因素,如政策变动的响应需要进一步研究。模型的实施需要专业的数据科学团队和相应的技术支持。
3.7. 改进和优化建议
为了改进和优化CNN-GRU-Attention模型,未来的研究可以考虑以下几个方向:探索更高效的模型结构,减少模型的参数数量,以降低计算复杂度。引入正则化技术,如Dropout或L1/L2正则化,以提高模型对噪声和异常值的鲁棒性。利用解释性机器学习方法,提高模型的可解释性,帮助用户理解模型的预测过程。
4. 结论与展望
本研究提出了一种创新的复合模型,该模型结合了CEEMDAN分解、卷积神经网络(CNN)、门控循环单元(GRU)和注意力机制(Attentions),用于提高碳价格预测的准确性。实验结果表明,该模型在拟合度、平均绝对误差(MAE)、平均绝对百分比误差(MAPE)和均方根误差(RMSE)等关键评价指标上均优于现有模型,具有显著的预测优势。
本模型的开发对于碳市场的参与者具有重大意义,它不仅为政府和政策制定者提供了一个强有力的工具,以更准确地预测和制定碳排放政策,还帮助企业和投资者做出更明智的决策,优化资源配置和降低交易风险。
尽管本研究的模型已经展现出卓越的性能,但仍有改进空间。未来的研究可以探索以下几个方向:增强模型的泛化能力,通过在不同的碳交易市场和时间段进行测试。提高模型对市场动态和政策变化的适应性和鲁棒性。增强模型的可解释性,以便更好地理解预测结果背后的逻辑。
该模型的潜在应用领域广泛。政策制定:辅助政府机构制定和调整碳排放政策。企业战略:帮助企业评估节能减排措施的成本效益。金融投资:为投资者提供精确的市场趋势分析,优化投资决策。
综上所述,本研究的复合模型在碳价格预测领域具有重要的实用性和广阔的应用前景。未来的研究将继续推动模型的发展,以满足不断变化的市场需求。