1. 引言
近年来,随着人工智能、大数据和云计算等数字技术飞速进步,我国数字经济正以前所未有的速度蓬勃发展,逐渐成为实体经济转型发展的关键驱动力,倒逼着制造业企业加快转型升级速度。又因2020年初全球新冠疫情的爆发,加之制造业企业的研发投入高产出少、产品开发周期长和供应链不稳定,急速加剧了制造业企业的财务风险问题。制造业是实体经济高质量发展的关键领域,而高质量发展是全面建设社会主义现代化国家的首要任务。为完善制造业企业财务风险管理体系建设,研究并构建出适配我国制造业上市企业的财务风险预警模型,对于促进我国制造业行业健康发展、助力国民经济高质量发展至关重要。
对于国内上市企业财务风险预警的研究,传统的BP神经网络早已被应用,丁琳(2008) [1]通过1:1配对同规模、行业与时间的ST与非ST公司参与模型训练,在研究中创新地将公司治理指标加入模型中。宋彪、朱建明、李煦(2015) [2]选取2012、2013年被沪深两市特别处理的工业制造业企业,将ST企业与非ST企业按1:2的比例进行随机抽样配比,并引入大数据指标,利用支持向量机构建财务风险预警模型进行研究。龙志、陈湘州(2023) [3]选取2018~2022年我国A股上市企业为研究样本,为平衡样本数据集采用了SMOTE过采样方法,构建了TOPSIS-FCM-CNN的财务风险预警模型进行研究。马秀颖、郝立宁等(2024) [4]选取了2018~2022年中国A股非金融上市公司,但对于不平衡数据集并未处理,只是采用对不均衡数据敏感性较高的查全率作为主要判别效果评价指标。王德青、薛守聪等(2025) [5]选取了40家ST企业按照1:1等比例匹配行业、资产规模相近的非ST企业,并构建了函数型Logistic模型进行了财务风险预警研究。
综上,从现有的多数相关研究中不难发现样本数据集往往是极为不平衡的,多数情况下因为方法的局限性、相关数据特征不符前提要求就使得研究难以进行,只能对研究样本进行1:1或1:2的对照样本匹配。本文在对选取的ST企业样本按照1:3比例匹配非ST企业的基础上,利用SMOTE过采样方法对不平衡数据集进行处理,并结合机器学习方法构建制造业企业的财务风险预警模型进行研究。本文研究旨在为市场环境复杂化、财务风险多元化下的企业财务风险预警研究提供帮助,也为实现制造业健康、可持续的发展,助力实体经济发展、建设制造业强国提供保障。
2. 财务风险相关概念
财务风险是指融资不当、资本结构不合理和财务状况不佳可能导致利益相关者破产或损失的风险。对于企业而言,财务风险往往由外部环境和企业自身带来,外部环境主要包括社会、技术和经济环境等方面变化的影响,企业自身包括内部控制的失效、财务决策的不当、财务管理制度不适应、战略决策的失误、治理结构的失衡和资本结构的不合理等。
国外学者通常将企业资不抵债以致破产的状况视为财务风险的标志,这是狭义的视角。然而在我国普遍的观点是认为如果一个企业连续两年亏损,那么它就面临着财务风险。基于这一标准,研究者们通常会选择被特别处理(ST)或被退市风险警示(*ST)的企业作为数据收集的重点对象,并将这些企业与正常运营的企业进行对比。从企业资本周转全过程的角度来考虑,可以将财务风险划分为筹资风险、投资风险、营运风险和收益分配风险,本文研究也据此角度来构建合适的财务指标体系。
3. 机器学习模型
机器学习作为人工智能的核心分支,是一门融合计算机科学、统计学和数学优化等多学科理论的交叉学科。其核心机制是通过对海量数据的深度学习和模式识别,自主构建预测模型。当面对新的数据输入时,系统能够基于已有模型进行智能判断,并通过持续学习不断优化模型性能,最终实现类人的学习能力。
3.1. 传统机器学习模型
(1) 支持向量机:
支持向量机(Support Vector Machine, SVM)的核心原理是在特征空间中构造一个最优分离超平面,该超平面能够最大化不同类别数据点之间的分类间隔。在处理线性可分数据时,SVM通过求解以下优化问题来确定最优超平面:
min
(1)
s.t.
,
(2)
其中w是超平面的法向量,b是偏置项,
是松弛变量,C是正则化参数。对于非线性可分数据,SVM采用核技巧将原始特征空间映射到高维特征空间,在该空间中寻找线性可分超平面。
(2) 朴素贝叶斯:
朴素贝叶斯(Naive Bayes)的核心在于利用特征的条件概率进行类别预测,其理论基础是贝叶斯定理:
(3)
其中,
是后验概率,表示在观测到特征X的条件下类别Y的概率;
是似然函数,表示在类别Y的条件下特征X出现的概率;P(Y)是先验概率,表示类别Y的初始概率;P(X)是证据因子,作为归一化常数。
(3) K最邻近:
K最邻近算法(K-Nearest Neighbor, KNN)的核心原理是通过计算待测样本与训练集中所有样本的特征空间距离,选取距离最近的K个邻居,根据这些邻居的类别或属性值进行预测决策。
(4) 逻辑回归:
逻辑回归(Logistic Regression, LR)对前提假设的要求相对宽松,无需满足因变量与自变量之间的线性关系假设,亦不要求误差项服从正态分布。逻辑回归公式如下:
(4)
其中,
表示第n个自变量,
为变量的参数估计值。
(5) 决策树:
决策树(Decision Tree, DT)能够从具有复杂结构和潜在无序性的训练数据中,构建出层次化的树形分类模型。其是通过递归地选择最优特征进行数据划分,逐步生成决策规则,从而实现对样本的高效分类。
3.2. 集成学习模型
(1) 随机森林:
随机森林(Random Forest, RF)是通过构建多棵差异性显著的决策树,并依据平均(回归任务)或多数表决(分类任务)的原则进行集成决策,这显著提升了模型的泛化能力和鲁棒性。
(2) 极度随机树:
极度随机树(Extremely Randomized Trees, ExtraTrees)的核心思想在于通过集成多棵随机决策树,并对其预测结果进行聚合来生成最终预测。这种方法不仅提高了模型的稳定性,还增强了其泛化能力。
(3) 多层感知机:
神经网络模型,特别是多层感知器(Multi-Layer Perceptron, MLP)通过将输入特征进行多层次的线性和非线性变换,逐步提取和组合信息,最终生成输出结果。最简单的MLP模型公式表达如下:
(5)
其中,
为样本特征值,
为特征值权重,b为偏置项,
为线性组合输出。
(4) XGBoost:
XGBoost (Extreme Gradient Boosting)在传统GBDT的基础上引入了正则化项以控制模型复杂度,同时采用了二阶泰勒展开对损失函数进行优化,并支持并行化计算与稀疏数据处理。具体的目标函数如下:
(6)
(5) LightGBM (LGBM):
LightGBM (Light Gradient Boosting Machine)是采用了基于直方图的决策树算法,将连续特征值离散化为直方图bins,从而减少了计算复杂度和内存占用。通常LightGBM模型的输出结果可以表示为:
(7)
x表示输入数据,T是决策树数量,y表示输出结果。
(6) 梯度提升树(GBT):
梯度提升树(Gradient Boosting Trees, GBT)其核心思想是通过迭代地构建多个决策树,并将它们的结果累加,从而逐步提升模型的预测性能。在每一轮迭代中,GBT会添加一个新的决策树,该树的目标是拟合上一轮迭代后模型的残差。通过这种方式,每一棵新树都在尝试修正前一轮模型的错误,从而逐步降低整体的预测误差。
(7) AdaBoost:
AdaBoost (Adaptive Boosting,自适应增强)是通过组合多个弱分类器(如决策树、感知机等)来构建一个强分类器,其核心思想是通过自适应调整样本权重,使模型在每一轮迭代中更加关注那些难以分类的样本,最终通过加权多数表决的方式将所有弱分类器整合为一个强分类器。
3.3. 机器学习的评价标准
本文采用5种常用评价指标:精准率、召回率、F1分数、准确率和AUC值,来全面评估模型的整体性能。在具体应用中,ST企业为正类,非ST企业为负类,并通过混淆矩阵中的真正类(TP)、真负类(TN)、假正类(FP)和假负类(FN)来计算上述评价指标。混淆矩阵是计算上述指标的基础,其结构如下表1所示。
Table 1. Confusion matrix
表1. 混淆矩阵表
实际分类 |
预测为ST企业 |
预测为非ST企业 |
ST企业 |
TP |
FN |
非ST企业 |
FP |
TN |
(1) 精准率
精准率(Precision)衡量的是模型预测为正类的样本中实际为正类的比例,即全部预测为ST的样本中实际为ST的样本量。其计算公式为:
(8)
(2) 召回率
召回率(Recall)衡量的是实际为正类的样本中被模型正确预测为正类的比例,即ST的样本中有多少被正确预测。其计算公式为:
(9)
(3) F1分数
F1 (F1-Score)分数是精准率和召回率的调和平均数,它综合反映了模型的预测精度和覆盖率,特别适用于不平衡数据集。其计算公式如下:
(10)
(4) 准确率
准确率(Accuracy)衡量的是模型预测正确的样本占总样本的比例,它反映了模型的整体预测能力。其计算公式如下:
(11)
(5) AUC值
AUC值是ROC曲线下的面积,用于衡量模型在不同阈值下区分正负类的能力。AUC值越接近1,模型的分类性能越好;AUC值为0.5时,模型相当于随机猜测。
4. 研究样本的选取
4.1. 数据来源
本文模型构建所需要的数据均来自于锐思(RESSET)数据库,在剔除核心变量缺失的样本后,本研究最终选取了2020年至2023年间国内A股市场中42家首次被特别处理(ST)的制造业上市企业以及126家正常经营的制造业上市企业作为研究样本。
4.2. 样本选取
本文对研究样本的选取分为两个步骤:第一步,筛选出A股市场2020至2023年间首次被特别处理的制造业上市企业,初步确定有61家A股制造业企业被特别处理,在排除了18家因其他原因被特别处理、历史上曾被ST、关键数据缺失的企业后,保留了42家ST企业;第二步,依据证监会2012年的行业分类标准,按照1:3的比例,匹配了相同行业、相同会计期间且总资产规模相近的126家非ST制造业上市企业作为对照组。综上,本文共选取了168家制造业上市企业作为研究样本。
4.3. 时间选取
证监会规定上市企业连续两年净利润为负是触发“其他风险警示”的条件之一,不少研究文献也表明,越是使用接近企业被ST时间点的财务数据,模型的预测准确性越高。因此,本文选择使用企业首次亏损的前一年(第T年)作为分析的时间点。以2023年作为被预测年为例,那么2020年为第T年,2021年为第T + 1年,2022年为第T + 2年。本文将使用2020年(第T年)的数据来做2023年(第T + 3年)的企业财务风险预测。
5. 预警指标的选取
5.1. 财务指标选取
本文参考财务风险预警相关领域的高质量文献资料,构建了一个适宜的财务指标体系,该体系主要包括了盈利能力、偿债能力、成长能力、营运能力、现金流量和资本结构。下表2列示了部分关键一、二级指标,完整的详表因篇幅原因无法完全展开。
Table 2. Financial indicators and calculation formulas
表2. 财务指标及计算公式
一级指标 |
二级指标 |
计算公式 |
盈利能力 |
净资产收益率 |
净利润*2/(期初股东权益 + 期末股东权益) |
资产报酬率 |
息税前利润*2/(期初总资产 + 期末总资产) |
…… |
…… |
…… |
资本结构 |
流动负债权益比率 |
流动负债/股东权益 |
权益乘数 |
资产合计/股东权益合计 |
盈利能力是企业财务绩效的核心指标之一,反映了企业通过经营活动获取利润的能力。偿债能力是衡量制造业上市公司能否按期偿还债务的关键指标,它对于评估企业能否持续稳定发展至关重要。成长能力是企业发展速度与潜在价值的重要体现,强大的成长能力不仅是企业持续发展的驱动力,也是其增强市场竞争力的核心要素之一。营运能力是评估企业管理和运用资产效率及效果的关键指标,反映了企业在资源配置、运营管理及资金周转方面的综合水平。现金流量是企业财务状况的实时反映,它能够揭示企业持续发展的能力。资本结构指的是上市公司资金来源的组成及其比例分配,主要由长期资本和短期债务构成,资本结构的选择直接影响企业的财务风险。
5.2. 非财务指标选取
引入非财务指标与财务指标相结合,构建多维度的财务风险预警模型能够显著增强模型的性能与效用,以更精准地识别企业财务风险。本文选择了反映股权结构、组织治理结构和研发投入三个方面的指标,这些非财务指标能够从公司治理、创新能力及战略规划等维度补充财务指标的不足,为财务风险预警提供更为全面的分析视角。部分非财务指标及其定义如下表3所示,详表因篇幅原因无法完全展开。
Table 3. Non-financial indicators and calculation formulas
表3. 非财务指标及计算公式
一级指标 |
二级指标 |
计算公式 |
股权结构 |
股权集中度1 |
第一大股东持股数/总股数 |
股权集中度5 |
前五大股东持股之和/总股数 |
|
…… |
…… |
组织治理结构 |
独立董事比例 |
独立董事人数/董事会总人数 |
股权结构是影响企业决策效率、经营稳定性及长期发展能力的关键因素;研发投入是制造业企业发展的关键驱动力。然而在激烈的市场竞争中,研发失败的风险相对较高,会影响产品推广、迭代,继而影响现金流会引发财务风险问题;良好的公司治理结构能够有效降低代理成本、提升决策透明度,并增强企业的市场信誉与竞争力董事会是公司治理的核心,独立董事的引入有助于增强董事会的独立性与决策科学性。
5.3. 数据预处理
本文在样本与指标选取后对数据集进行了缺失值处理,考虑到数据集中包含许多数值较大的数据点,这导致计算复杂度增加,模型不容易收敛。因此,本文对数据进行了归一化处理,将数据值转换到了(0, 1)范围内,以便于后续研究工作的进行。
5.4. 特征重要性分析
本文采用XGBoost模型对数据集中的特征进行重要性分析排序,以验证所选指标的适宜性。基于原始数据集对模型进行训练,并计算出79个特征预警指标的重要性并排序,其结果的可视化展示如图1所示。
图1展示了79个预警指标在XGBoost模型中的重要性得分排序,这些得分是通过对特征重要性进行加权平均计算得出,重要性得分反映了每个特征对模型预测能力的贡献大小。通过观察可以发现所有选定的指标都显示出了一定的重要性,从而证实了这些指标的选择是合理适宜的。指标的得分较高、排序在前就表明其拥有着更为优异的区分能力。
Figure 1. Feature importance analysis
图1. 特征重要性分析
6. 实验结果与分析
6.1. 预警模型的构建
本文首先构建了一个包含12种不同机器学习模型的分类器,将数据集按照70%训练集和30%测试集的比例进行划分,再让数据进行特征缩放遍历每个分类器进行模型训练。在训练完成后,使用测试集对模型进行预测,并计算每个模型的精确度、召回率、F1分数、准确率和AUC值,最后输出这些性能指标如表4所示,并绘制相应的ROC曲线如图2所示。
Table 4. Comparison of test results for different models
表4. 不同模型测试结果对比
Model |
Precision |
Recall |
F1-score |
Accuracy |
Support Vector Machine |
0.45 |
0.33 |
0.38 |
0.69 |
Random Forest |
0.56 |
0.60 |
0.58 |
0.75 |
Extra Trees |
0.50 |
0.40 |
0.44 |
0.71 |
Naive Bayes |
0.50 |
0.53 |
0.52 |
0.71 |
K Nearest Neighbors |
0.57 |
0.27 |
0.36 |
0.73 |
Logistic Regression |
0.41 |
0.47 |
0.44 |
0.65 |
Decision Tree |
0.50 |
0.60 |
0.55 |
0.71 |
XGBoost |
0.58 |
0.47 |
0.52 |
0.75 |
LGBM |
0.50 |
0.47 |
0.48 |
0.71 |
Multilayer Perceptron |
0.40 |
0.53 |
0.46 |
0.63 |
Gradient Boosting Trees |
0.53 |
0.53 |
0.53 |
0.73 |
AdaBoost |
0.46 |
0.40 |
0.43 |
0.69 |
Figure 2. Comparison of ROC curves for different models
图2. 不同模型ROC曲线对比图
6.2. SMOTE算法原理与不平衡数据处理
考虑到我国市场上ST企业与非ST企业的数量存在较大差异,这种不平衡的数据分布可能会让预测偏向于多数类,从而影响预警模型的性能。为了解决这个问题,一般研究中通常会采用手动匹配样本或利用算法的方式来减轻类别不平衡对分类结果的影响。本文选择了SMOTE (Synthetic Minority Over-Sampling Technique)插值采样方法来处理不平衡的数据,它通过测量少数类样本之间的欧几里得距离来确定每个样本的K个最近邻,再根据数据不平衡的程度随机选择一定数量的这些近邻样本,与原有的少数类样本结合,创造出新的“少数类样本”。这个过程有效地扩充了少数类样本的规模,使数据集更加平衡。这种方法不仅能够保留原有少数类样本的信息,还能通过生成新的合成样本来提高模型对于少数类的识别能力,从而减少因数据不平衡导致的影响。下图3为SMOTE算法的原理图,图中蓝色五角星为少数类样本,黑色五边形为多数类样本,蓝色十字星形则为生成的“少数类样本”。
Figure 3. Diagram of the SMOTE algorithm principle
图3. SMOTE算法原理图
6.3. 平衡后数据集测试结果与AUC可视化分析
在定义了包含12种不同机器学习模型的分类器之后,本文对经过SMOTE过采样处理的数据集进行了重新划分,训练集和测试集的比例设定为7:3。再让数据进行特征缩放遍历每个分类器,进行模型训练,在测试集上进行预测,并计算了每个模型的精确度、召回率、F1分数、准确率和AUC值,并绘制了ROC曲线以供分析,如表5与图3所示。
结果如表5所示,从评价指标准确率看,依次从高到低为:Extra Trees、Random Forest、K Nearest Neighbors、Multilayer Perceptron、LGBM、Support Vector Machine、Gradient Boosting Trees、Logistic Regression、Decision Tree、AdaBoost、Naïve Bayes。通过综合比较,其中分类效果最好的是Extra Trees模型,其精准率、召回率、F1分数分别为0.86、0.95、0.90,表明该模型能够更好地应用于财务风险预测。
对比图2与图4可以发现,经过SMOTE处理后的数据集让模型预测的整体效果比之前未平衡数据集的效果有显著的提升。结合图表来看,Extra Trees模型的AUC值达到了0.97,这一数值在所有模型中是最高的,表明Extra Trees模型能够有效地识别出ST企业,显示出该模型在制造业上市企业财务风险预警方面具有出色的效果。相较于未对非平衡数据集处理前,经处理后的ExtraTrees模型的精准率、召回率、F1分数、准确率分别提高了36%、55%、46%和18%,进而验证了本文中对非平衡数据集处理方式的科学性与可行性。
Table 5. Comparison of test results for different models on the balanced dataset
表5. 平衡数据集后不同模型测试结果对比
Model |
Precision |
Recall |
F1-score |
Accuracy |
Extra Trees |
0.86 |
0.95 |
0.90 |
0.89 |
Random Forest |
0.82 |
0.97 |
0.89 |
0.88 |
K Nearest Neighbors |
0.87 |
0.87 |
0.87 |
0.87 |
Multilayer Perceptron |
0.80 |
0.97 |
0.88 |
0.87 |
LGBM |
0.80 |
0.95 |
0.87 |
0.86 |
Support Vector Machine |
0.78 |
0.95 |
0.86 |
0.84 |
Gradient Boosting Trees |
0.77 |
0.95 |
0.85 |
0.83 |
Logistic Regression |
0.76 |
0.89 |
0.82 |
0.80 |
Decision Tree |
0.77 |
0.87 |
0.81 |
0.80 |
AdaBoost |
0.72 |
0.95 |
0.82 |
0.79 |
XGBoost |
0.76 |
0.82 |
0.78 |
0.78 |
Naive Bayes |
0.80 |
0.53 |
0.63 |
0.70 |
Figure 4. Comparison of ROC curves for different models on the balanced dataset
图4. 平衡数据集后不同模型ROC曲线对比图
6.4. 模型的超参数调优
合理选择超参数能够显著提升机器学习模型的性能。通过对超参数的调整,可以提高模型的训练效率与预测精度,经过良好调优的模型具备更高的鲁棒性与稳定性。本文采用了GridSearchCV (网格搜索)进行超参数优化。首先定义了超参数网格,确定n_estimators、criterion、max_depth、min_samples_split、min_samples_leaf多个超参数的候选值,用于后续的网格搜索。进行网格搜索时,使用GridSearchCV进行5折交叉验证(cv = 5)来找到最佳的超参数组合。在经过多轮调整之后得到了最优模型(ExtraTrees)的最佳参数,criterion = entropy、max_depth = 10、min_samples_leaf = 8、min_samples_split = 20、n_estimators = 250。
6.5. 不同数据平衡技术效果对比
本文在构建模型时也选取了其他两种数据平衡技术来进行处理。其一是欠采样处理,设置frac为0.33减少多数类样本的数量进行平衡;其二是数据增强,对原始数据集添加高斯噪声与插值处理。在ExtraTrees模型中其与SMOTE处理的效果对比如下表6所示。
Table 6. Comparison of model performance with different data processing methods
表6. 不同数据处理方法的模型效果对比
Method |
Precision |
Recall |
F1-score |
Accuracy |
SMOTE |
0.86 |
0.95 |
0.90 |
0.89 |
Undersampling |
0.72 |
0.73 |
0.72 |
0.73 |
Data Augmentation |
0.79 |
0.83 |
0.82 |
0.80 |
通过表中数据对比,可以明显看出SMOTE差值采样方法的模型效果更好,因此本文在模型研究时最终也选取了SMOTE处理的方法。但如果少数类样本中存在噪声,SMOTE可能会放大这些噪声从而影响模型的性能,且插值会影响过拟合的问题。本文在模型构建时采用了正则化技术、选择了合适的K值,且使用集成学习方法也能有效减轻这些偏差,提升模型的泛化能力。
7. 结论
针对现有的企业财务风险预警研究存在研究样本数据集不平衡的问题,本文提出了利用1:3比例样本匹配与SMOTE过采样结合的方法来改善数据不平衡问题。具体结论为:一,针对样本数据不平衡性问题,本文为研究样本按1:3比例匹配对照组,并对数据集采用了SMOTE算法进行处理,有效解决了传统随机过采样方法易导致模型过拟合的问题,为机器学习模型的特征学习提供了更优质的数据基础;二,本文系统比较了传统机器学习模型与集成学习模型共12种算法的预测性能,实证结果表明ExtraTrees模型在主要评价指标上均优于其他算法,展现出更有效的性能,适用于制造业上市企业的财务风险预测;三,对不平衡数据集进行改善处理后,文中12种机器学习的模型效能都有显著的提升,其中ExtraTrees模型的精准率、召回率、F1分数、准确率分别提高了36%、55%、46%和18%,验证了技术方法的有效性。
然而本文研究仍存在一些局限性,未来可从以下几个方向进一步深化。首先,本文所采用的数据集缺乏时间维度特征,后续研究可进一步整理精细的时序数据,以捕捉企业财务风险的动态演变规律。其次,还可结合宏观经济指标与行业周期性特征,构建更为全面的风险预警体系,从而提升模型的预测精度与适用性。此外,考虑到数据质量对模型预测性能的关键影响,后续研究可引入数据质量评估框架,结合异常检测和文本情感分析等技术,构建具有数据质量保障机制的机器学习财务风险预警模型,从而提高模型的鲁棒性和预测准确性。