A PSO-PLS Based Prediction Model for Reagent Dosage in Coal Slime Flotation
Precise control of reagent addition in coal slime flotation is crucial for achieving optimal flotation performance. It is a key factor in intelligent flotation and has been a research focus for flotation intelligence researchers in recent years. Improper reagent addition can lead to significant fluctuations in the ash content of the flotation concentrate. Many factors influence the amount of reagent added, including feed concentration, feed flow rate, added water volume, concentrate ash content, and tailings ash content. This paper proposes a predictive model for the addition of frothers and collectors in coal slime flotation based on the Particle Swarm Optimization (PSO) and Partial Least Squares (PLS) algorithms. By comparing the predictive performance of PCA, PLS, and PSO-PLS algorithms, it was found that the PSO-PLS model excels in prediction accuracy and robustness, with significantly lower mean square error, root mean square error, and mean absolute percentage error compared to the other two methods. The R 2value for collector prediction reached 0.7863, and for frother prediction, it reached 0.8320, indicating good fitting performance. Experiments demonstrate that the PSO-PLS algorithm can accurately predict reagent addition, aiding in the intelligent reagent dosing process in coal preparation plants and providing technical support for further intelligent construction of coal preparation plants.
Flotation
煤泥浮选过程是炼焦型选煤厂生产中的关键环节,直接影响浮选精煤的产率和质量
在浮选生产过程中,由于设备参数如浮选机类型、充气量、搅拌强度和处理量等通常保持不变,我们认为这些因素在构建浮选加药量预测模型时无需频繁调整。此外,考虑到某些影响因素难以控制或测量,以及它们对浮选效果的影响有限,如煤泥的粘度、温度和煤的粒度等,我们选择不将这些因素纳入模型。通过深入分析浮选工艺流程和选煤车间的实际情况,我们确定了入料浓度、入料流量、补水量和浮选药剂添加量作为影响浮选效果的关键过程变量。
在模型中,我们将系统分为输入、输出和预测三部分。输出变量包括捕收剂的添加量和起泡剂的添加量,分别用U1、U2表示,因此输出向量可以表示为 。而输入变量则包括入料浓度C、入料流量Q、补水量W,以及精煤灰分和尾煤灰分Y1、Y2,输入向量可以表示为 。模型的结构按照公式进行构建。
为建立煤泥浮选加药量预测模型,在浮选机稳定运行后,依据药剂调整周期,记录入料浓度、入料流量、补水量以及两种药剂的添加量。然后,让浮选机连续运行20分钟,期间采集经过处理的精煤和尾煤样本。这些样本被带回实验室进行烘干和烧灰处理,以获取所需的数据
1) 操作步骤如下:
按列计算均值 和标准差 ,计算标准化数据 ,即 ,将各指标xnp转化成标准化指标Xnp有 ,对应地,称Xij为输入变量的标准化指标变量。
2) 计算相关系数矩阵R,用于描述输入变量之间的线性关系:相关系数矩阵 ,有 ,式中: , , ,rij是第i个指标与第j个指标的相关系数。
3) 计算特征值和特征向量:特征值要由大到小排序,对应的特征向量就是主成分。计算相关系数矩阵R的特征值 ,及对应的特征向量 ,其中 ,由特征向量组成m个新的指标变量
式中,y1是第1主成分,y2是第2主成分,ym是第m主成分。
4) 根据信息贡献率和累计贡献率选择m (m ≤ 5)个主成分:计算特征值 的信息贡献率和累计贡献率。
式中,bj为主成分yj的信息贡献率,am为主成分y1到ym的贡献率之和,即累计贡献率。一般当am大于0.9时,选择前m个指标变量 作为m个主成分,代替原来p个指标变量,从而对m个主成分进行综合分析。
偏最小二乘回归分析(Partial Least Squares Regression Analysis, PLS)是一种用于研究因变量对自变量依赖关系的方法,其目的是通过给定的自变量值来估计或预测因变量的值。PLS的核心思想是通过寻找新的正交投影方向(主成分),使投影后的因变量和自变量之间具有最大的协方差,从而建立预测模型。通过最小化预测变量和响应变量之间的残差平方和,找到最佳预测模型
在实际应用中,选择合适的回归分析方法需要结合具体问题和数据特征
1) 标准化矩阵:输入矩阵X包含五个变量:入料浓度、入料流量、补水量、精煤灰分、尾煤灰分;输出矩阵Y包含两个变量:起泡剂添加量、捕收剂添加量;对X、Y矩阵进行标准化处理,得到矩阵E和F。
其中 。
其中 , ,利用拉格朗日乘数法求得w1与c1,然后根据w1与c1求得第一对主成分t1与u1。
3) 建立输入变量E输出变量F对第一主成分t1、u1的回归方差,并计算残差矩阵E1、F1:建立E,F对t1、u1的回归方程为
4) 更新矩阵,并重复以上步骤:用残差矩阵E1、F1代替E、F形成新的输入变量、输出变量,求解新的输入变量和输出变量的第一主成分t2、u2,即为原来输入变量和输出变量的第二主成分。建立新的输入变量E1输出变量F1(残差矩阵)和第二主成分t2、u2的回归方程,并计算残差矩阵E2,F2。
5) 重复3、4步骤直至求出所有的主成分或者满足条件为止。
6) 建立回归方程,计算出回归系数:若E的秩为A,则
由于 都可以表示 的线性组合,就可以得到:
,
其中,FAk为残差矩阵FA的第k列。
7) 交叉验证确定主成分个数,引入PRESS和误差平方作为判断依据。
式中,yi为y在第i个观测点上的真实值, 为代入模型后在第i个观测点上的预测值。定义交叉有效性 为
式中,PRESSn为除去某个样本点后,利用剩余样本点拟合出含n个主成分的回归方程,再对去除的样本点进行预测的误差平方和。SSn−1为所有样本点拟合出的含n − 1个主成分的回归方程的误差平方和。
当
,表示第n步提取的成分的边际贡献是显著的,有利于减小预测的误差。相反,当
时,表示模型达到精度要求,可以停止提取成分。偏最小二乘回归分析步骤如
粒子群优化算法(PSO)是一种基于群体智能的优化算法。PSO算法模拟鸟群在寻找食物时的群体行为,通过集体之间的共享信息找到问题的最优解
PSO的核心思想是用粒子模拟鸟类个体在搜索空间中移动,通过跟踪个体最优位置Pbest和群体最优位置Gbest来更新位置。个体最优位置Pbest是指粒子在搜索历程中找到的最佳适应度位置,群体最优位置Gbest是整个群体中发现的最佳适应度位置。每次更新粒子位置时,都会计算适应度值,并将其与个体最优位置和群体最优位置的适应度值进行比较,更新这两个位置。通过不断更新每个粒子的速度和位置,整个粒子群的适应度值逐渐提高,粒子向更好的解移动,最终找到全局最优解
虽然PLS具有较强的预测能力,但也存在可能无法准确反映数据的实际结构和过度拟合的风险。为了减小模型的预测误差,利用PSO的全局搜索能力,分别优化PLS模型中主成分数量、输入变量和输出变量的权重和回归系数,提高预测模型的精度。首先,通过PLS建立k个变量的回归模型,然后计算预测结果的RMSE,并将其作为粒子群算法的适应度函数
具体优化步骤如下:
初始化粒子群:初始化粒子群位置和速度、迭代次数、惯性权重、自我学习因子和群体学习因子、算法终止的最小误差。每个粒子表示PLS模型参数集。假设在D维搜索空间中,有n个粒子,每个粒子代表一个解,则:
第i个粒子的位置为: ;
第i个粒子的速度(粒子移动的距离和方向)为: ;
第i个粒子搜索到的最优位置(个体最优解)为: ;
群体搜索到的最优位置(群体最优解)为: 。
1) 计算适应值:使用每个粒子的参数构建PLS模型,通过适应度函数(RMSE)评估每个粒子的PLS模型性能。
2) 寻找个体极值和群体极值:对每个粒子,比较当前适应度与历史最佳适应度。如果当前适应度更优,则更新个体最优解,找出全局最优解。
3) 更新粒子位置和速度:
速度更新公式为: ;
位置更新公式为: 。
4) 重新计算粒子适应值:重新计算当前粒子的适应值。
5) 更新个体和群体极值:若粒子当前适应值优于历史局部最优值,则更新为新的局部最优值和位置。然后在粒子群中找到全局最优值及其位置。
6) 迭代:重复步骤4~6直到达到预设的迭代次数或满足设定的最小误差。
PSO优化后的PLS模型处理输入变量和输出变量具体流程如
对模型的输入变量:入料浓度、入料流量、补水量、精煤灰分和尾煤灰分,以及输出变量:捕收剂、起泡剂添加量数据利用Matlab软件进行主成分回归分析,结果如
序号 |
特征值 |
贡献率(%) |
累计贡献率(%) |
入料浓度 |
3.1681 |
31.6806 |
31.6806 |
入料流量 |
3.0494 |
30.4941 |
62.1748 |
补水量 |
1.6481 |
16.4912 |
78.6660 |
精煤灰分 |
1.3415 |
13.4146 |
92.0806 |
尾煤灰分 |
0.7919 |
7.9194 |
100 |
从表中我们可以看出,前四个特征值的累计贡献率达到90%以上,主成分分析效果很好。于是略去第五个主成分,得到主成分回归方程。预测结果如
对采集的煤泥的输入变量:入料浓度、入料流量、补水量、精煤灰分和尾煤灰分;以及输出变量:捕收剂添加量、起泡剂添加量数据利用Matlab软件进行偏最小二乘回归分析,结果如
本研究将粒子群基本参数设定如下:种群数量n = 10,惯性权重w = 0.8,粒子飞行最大速度Vmax= 2,学习因子c1= c2= 1.5,迭代次数为50次。图为粒子群算法运行过程中,适应度值随着迭代次数的增加而减小,从开始的0.7879最终减小到0.6428,适应度变化曲线图如下
基于PSO-PLS加药量预测结果如
为了更直观的比较PCA、PLS、PSO-PLS所构建的浮选加药量预测模型之间的性能,衡量模型预测误差,采用均方误差、均方根误差、平均绝对百分比误差以及决定系数对模型的预测性能进行评估。均方误差、均方根误差、平均绝对百分比误差以及决定系数的计算公式如式所示
1) 均方误差(Mean Square Error, MSE):预测值与真实值之间差异的平方和的平均值。
2) 均方根误差(Root Mean Square Error, RMSE):均方误差的平方根。
3) 平均绝对百分比误差(Mean Absolute Percentage Error, MAPE):预测误差绝对值占真实值的百分比的平均值。
4) 决定系数(R2):模型拟合优度的统计量,取值范围从0到1,越接近1说明模型对数据拟合程度越好。
式中,n——样本数量; ——变量的真实值; ——变量的预测值; ——变量真实值的平均数。
对比PLS和PSO-PLS算法在预测起泡剂和捕收剂加药量方面的结果,如
基于PCA和PLS算法建立的起泡剂预测模型,评价指标如
评价指标 算法 |
MSE |
RMSE |
MAPE |
R2 |
PCA |
1.871 |
1.3517 |
9.7546 |
0.2459 |
PLS |
1.7991 |
1.3413 |
9.625 |
0.2574 |
PSO-PLS |
0.5189 |
0.7203 |
4.8787 |
0.7863 |
基于PCA算法建立的捕收剂预测模型如
评价指标 算法 |
MSE |
RMSE |
MAPE |
R2 |
PCA |
4.1968 |
2.0486 |
3.0276 |
0.4332 |
PLS |
3.8086 |
1.9516 |
2.8903 |
0.4856 |
PSO-PLS |
1.2577 |
1.1215 |
1.7484 |
0.8320 |
为实现浮选加药量预测,本文通过主成分分析法确定了入料浓度、入料流量、补水量、精煤灰分这四个特征值为影响浮选起泡剂和捕收剂的加药量的关键因素,基于这四个因素,构建了基于PSO优化的PLS浮选加药量预测模型。通过PSO优化PLS的回归系数,解决了传统PLS模型易受异常值影响的问题,提高了模型的可解释性和预测能力。与传统的PCA和PLS模型相比,PSO-PLS网络模型在预测精度和稳健性方面具有明显的提升,特别是在处理异常值和复杂数据方面表现出出色的优越性。实验证明,PSO-PLS算法能够有效地预测浮选过程中复杂的药剂添加量,为选煤厂浮选加药过程的智能化和自动化控制提供了坚实的技术支持。
入料流量 |
入料浓度 |
水量 |
精煤灰分 |
尾煤灰分 |
起泡剂用量 |
捕收剂用量 |
336 |
65.9 |
57 |
9.96 |
73.96 |
15 |
53 |
343 |
73.5 |
7 |
10.45 |
74.16 |
15 |
55 |
365 |
72.7 |
01 |
10.64 |
70.35 |
13 |
57 |
359 |
67.3 |
11 |
9.34 |
70.55 |
13 |
55 |
288 |
102 |
140 |
12.53 |
59.55 |
10 |
49 |
284 |
96.1 |
142 |
11.50 |
50.10 |
10 |
49 |
295 |
91.9 |
140 |
11.11 |
54.18 |
10 |
48 |
285 |
90.4 |
141 |
11.77 |
47.09 |
10 |
51 |
303 |
98.6 |
137 |
9.83 |
67.72 |
10 |
52 |
301 |
92.1 |
136 |
10.65 |
69.06 |
10 |
50 |
307 |
91.7 |
133 |
10.52 |
64.27 |
10 |
51 |
306 |
96.4 |
135 |
9.69 |
64.64 |
10 |
52 |
302 |
99.7 |
136 |
10.63 |
68.30 |
8 |
50 |
308 |
105 |
136 |
9.78 |
65.35 |
9 |
50 |
316 |
103 |
161 |
9.35 |
57.76 |
11 |
50 |
315 |
99.9 |
160 |
12.11 |
56.16 |
13 |
50 |
302 |
78.4 |
177 |
9.91 |
73.70 |
15 |
50 |
292 |
80.1 |
175 |
8.36 |
73.21 |
14 |
55 |
305 |
80.3 |
176 |
8.09 |
74.74 |
14 |
55 |
312 |
85.2 |
173 |
8.11 |
70.21 |
14 |
55 |
298 |
97.7 |
183 |
8.29 |
57.33 |
12 |
55 |
283 |
100 |
186 |
9.84 |
53.60 |
12 |
52 |
289 |
101 |
187 |
8.71 |
57.44 |
12 |
54 |
290 |
103 |
183 |
9.53 |
55.26 |
12 |
51 |
304 |
83.7 |
169 |
9.22 |
62.57 |
12 |
50 |
341 |
100 |
167 |
9.32 |
49.60 |
13 |
50 |
293 |
99.9 |
102 |
10.64 |
66.26 |
13 |
50 |
293 |
113 |
104 |
10.06 |
66.97 |
14 |
50 |
291 |
113 |
105 |
11.19 |
70.91 |
14 |
50 |
313 |
103 |
103 |
11.27 |
70.12 |
14 |
51 |
294 |
76.1 |
104 |
9.13 |
69.19 |
14 |
48 |
321 |
73.6 |
95 |
10.49 |
73.42 |
14 |
50 |
328 |
71.4 |
98 |
9.92 |
66.37 |
15 |
50 |
324 |
70 |
113 |
9.19 |
64.78 |
15 |
50 |
294 |
107 |
117 |
11.62 |
54.41 |
12 |
50 |
304 |
99.1 |
145 |
10.68 |
42.89 |
10 |
52 |
303 |
92.8 |
143 |
10.51 |
42.66 |
10 |
52 |
310 |
95.7 |
144 |
11.77 |
54.96 |
11 |
52 |
324 |
80.1 |
171 |
9.73 |
58.18 |
12 |
52 |
324 |
78.7 |
169 |
6.95 |
46.74 |
13 |
53 |
311 |
82.6 |
168 |
6.97 |
58.14 |
12 |
55 |
330 |
84.3 |
82 |
7.74 |
51.70 |
12 |
50 |
305 |
100 |
178 |
8.22 |
54.66 |
10 |
51 |
293 |
106 |
179 |
8.80 |
57.54 |
11 |
50 |
310 |
96.1 |
177 |
8.91 |
55.96 |
10 |
51 |
318 |
105 |
177 |
8.36 |
55.12 |
12 |
50 |
310 |
88.2 |
169 |
10.00 |
48.07 |
12 |
50 |
347 |
93.5 |
172 |
9.09 |
42.80 |
13 |
50 |
266 |
100 |
101 |
10.47 |
63.69 |
12 |
48 |
264 |
107 |
101 |
9.89 |
65.22 |
12 |
50 |
296 |
117 |
103 |
10.67 |
62.38 |
12 |
51 |
273 |
108 |
101 |
10.23 |
61.73 |
12 |
50 |
313 |
103 |
114 |
9.17 |
55.06 |
11 |
56 |
362 |
99 |
115 |
7.36 |
61.3 |
9 |
54 |
307 |
106 |
134 |
8.95 |
68.97 |
9 |
52 |
298 |
99 |
97 |
9.93 |
78.7 |
13 |
50 |
325 |
76.9 |
154 |
10.12 |
60.3 |
13 |
52 |
338 |
76.9 |
153 |
11.44 |
81.1 |
13 |
53 |
311 |
91.3 |
152 |
10.75 |
78.26 |
13 |
50 |
300 |
91.3 |
151 |
13.82 |
78.64 |
11 |
50 |
310 |
93.3 |
153 |
11.4 |
55.29 |
11 |
50 |
351 |
90.1 |
152 |
10.91 |
77.98 |
11 |
57 |
339 |
92.8 |
151 |
12.44 |
52.34 |
12 |
55 |
325 |
82.2 |
149 |
10.78 |
60.17 |
11 |
50 |
257 |
87.2 |
152 |
12.27 |
73.45 |
11 |
42 |
253 |
88.9 |
148 |
11.29 |
78.03 |
12 |
42 |
261 |
94.4 |
146 |
11.54 |
76.97 |
12 |
45 |
255 |
92.2 |
144 |
12.17 |
74.3 |
11 |
42 |
274 |
91.5 |
145 |
11.46 |
73.61 |
12 |
44 |
288 |
102 |
140 |
12.53 |
59.55 |
12 |
50 |
284 |
96.1 |
142 |
11.5 |
50.10 |
10 |
50 |
295 |
91.9 |
140 |
11.11 |
54.18 |
10 |
50 |
285 |
90.4 |
141 |
11.77 |
47.09 |
10 |
50 |
303 |
98.6 |
137 |
9.83 |
67.72 |
10 |
52 |
301 |
92.1 |
136 |
10.65 |
69.06 |
10 |
50 |
307 |
91.7 |
133 |
10.52 |
64.27 |
10 |
51 |
306 |
96.4 |
135 |
9.69 |
64.64 |
10 |
51 |
302 |
99.7 |
136 |
10.63 |
68.30 |
10 |
51 |
298 |
97.7 |
183 |
8.29 |
57.33 |
12 |
52 |
283 |
100 |
186 |
9.84 |
53.60 |
12 |
50 |
289 |
101 |
187 |
8.71 |
57.44 |
12 |
51 |
290 |
103 |
183 |
9.53 |
55.26 |
12 |
50 |
294 |
107 |
117 |
11.62 |
54.41 |
11 |
50 |
304 |
99.1 |
145 |
10.68 |
42.89 |
11 |
52 |
303 |
92.8 |
143 |
10.51 |
42.66 |
11 |
50 |
310 |
95.7 |
144 |
11.77 |
54.96 |
11 |
50 |
305 |
100 |
178 |
8.22 |
54.66 |
12 |
52 |
293 |
106 |
179 |
8.8 |
57.54 |
12 |
50 |
310 |
96.1 |
177 |
8.91 |
55.96 |
12 |
51 |
318 |
105 |
177 |
8.36 |
55.12 |
12 |
50 |