Fine-Grained Emotion Fluctuation Analysis of E-Commerce Customer Service Dialogues Based on SenticNet
The rapid advancement of e-commerce has significantly enhanced consumer convenience, yet it has simultaneously exacerbated the challenges faced by customer service. Customer service response efficiency and problem-solving effectiveness are critical to the user experience. However, widely adopted post-feedback mechanisms are inadequate for real-time monitoring of user emotions, hindering timely identification and management of emotional fluctuations, which limits improvements in service satisfaction. To address this shortcoming, this paper proposes a SenticNet lexicon-assisted cross-sentence contextual dialogue emotion classification model (SLED-EC). The proposed model integrates both word-level and sentence-level emotion recognition tasks, enabling more precise capture of emotional nuances. Additionally, it analyzes contextual information to identify emotional transition points and constructs emotional fluctuation curves, dynamically capturing emotional changes in multi-turn dialogues. Experimental results demonstrate that SLED-EC significantly outperforms baseline models in accuracy (67.78%), recall (83.81%), and F1-score (72.36%), underscoring its advantages in emotion analysis for customer service dialogue scenarios. This study offers a novel solution for e-commerce customer service systems, contributing to improved user satisfaction and optimized service experience.
Dialogue Sentiment Analysis
为应对不断增长的用户需求,淘宝、京东等电商平台采用在线客服系统提供服务。用户满意度是衡量服务质量的重要指标,因此电商平台建立了服务评级系统,通过用户评价对在线客服的服务质量进行评级。然而,目前普遍采用的评级系统多为事后评价,即服务结束后用户才能进行反馈,导致客服无法在对话过程中及时调整服务,进而引发用户负面情绪升级和流失。
在线客服对话是一种连续交互过程,包含用户丰富的情绪变化。如
情感分析(Sentiment Analysis)作为自然语言处理(NLP)中的核心任务之一,旨在识别文本中的情感倾向。与词语级
为应对这些挑战,本文提出了一种基于情感词辅助的跨句上下文对话情绪分类模型(Sentiment-Lexicon Enhanced Cross-Sentence Contextual Dialogue Emotion Classification Model, SLED-EC)。首先结合SenticNet情感词典和RoBERTa模型,构建了包含词语级和句子级情感标签的训练数据集。接着,通过[CLS] token将对话中的各语句连接为长序列,并使用Character Embeddings替代BERT的Segment Embeddings,使模型更好地区分不同发言者的情绪和语义差异,增强对多轮对话情感的理解。最后,通过分析对话中单句的情感分布,构建整个对话的情绪波动曲线。SLED-EC的主要创新点如下:1) 结合SenticNet实现词语级情感识别,增强模型对细粒度情感变化的捕捉能力;2) 利用跨句上下文信息,准确识别多轮对话中的情感转折与动态变化;3) 构建情绪波动曲线,提供用户情感状态的全局视角。该模型在电商平台客服系统中具有广泛的应用潜力,可以通过监测和分析用户的情绪波动,辅助客服及时调整服务,预防负面情绪的积累,提升用户满意度。此外,模型还可应用于智能对话系统,通过精确的情绪识别提供个性化和贴心的服务体验。
对话情感通常具有上下文依赖性,每个句子的情感不是孤立存在的,这种依赖性增加了多轮对话情感分析的复杂性。早期的情感分析研究主要集中于单句或短文本
长短期记忆网络(LSTM)和Transformer等模型因其对序列数据的处理能力,被广泛应用于捕捉对话中的上下文信息。LSTM能够有效地保留对话中的长距离依赖
随着对话系统的复杂性增加,模型不仅需要捕捉显性情感信息,还需理解情感的动态转变,这对模型的上下文处理能力提出了更高的要求。在客服满意度
Devlin等
近年来,BERT模型在自然语言处理任务中取得了显著进展,尤其在情感分类任务中表现优异
对话情感分析涉及多轮互动和复杂上下文关系,BERT因其强大语境理解能力而广泛应用于对话系统。Zhang等
为挖掘用户在电商客服服务过程中的动态情绪体验,本文将以对话中句子级的情绪为研究对象。一句话可能包含多种不同的情绪,如当用户希望商家对退货运费做出售后时(如
如
情感分析任务中,外部情感知识可以看作是文本语义的情感补充来源。SenticNet
单词 |
|
Mood tags |
excellent |
0.744 |
#joy, #eagerness |
fantastic |
0.87 |
#joy, #calmness |
damage |
−0.45 |
#sadness, #fear |
awful |
−0.94 |
#sadness, #disgust |
对话中语句的情绪强度分布可以视为一组基于BERT的上下文语境建模问题。将带有情绪标签
的语句通过[CLS] token连接后,形成“[CLS] I apply for a return [CLS] Will you return freight [CLS]…”的长序列输入至BERT模型中,并转换为Token Embeddings、Character Embeddings、Position Embeddings之和作为BERT模型的最终输入(如
BERT模型由多个Transformer层重叠而成,Transformer层主要由Encoder和Decoder组成。其中,Encoder层包含一个自注意力网络层和一个前馈神经网络,而Decoder层比Encoder层多一层注意力层。在Transformer架构中的注意力机制中,Query用于衡量与每个Key的相关性,Key用于构建注意力得分的计算基础,而Value用于根据注意力得分进行加权求和。多头注意力将信息进行融合生成最终的注意力输出:
(1)
模型选择交叉熵损失(Cross-Entropy Loss)作为模型的主要损失函数:
(2)
(3)
(4)
其中, 为任务最终的损失函数, 、 分别表示词语级与句子级情感分类任务的损失函数。 、 是训练样本, 、 分别表示两类任务的情绪类别数。 、 为训练数据中的真实标签, 、 为预测标签, 为对话中的语句数,取均值以减少对话中语句数量差异造成的影响。最终得到语句的七类情绪概率分布。为进一步计算对话中每句语句的情感值,本文对七类情绪标签进行了排序:joy、surprise、neutral、sadness、fear、disgust、anger,并根据情绪的正负向和强度分配了相应的权重。通过加权计算得到语句的情感值为:
(5)
其中, 表示语句 中第 种情绪的概率分布, 表示不同情绪的权重,设定 , , , , , , 。
总句子数 |
joy |
surprise |
neutral |
sadness |
fear |
disgust |
anger |
212,808 |
40,788 |
1,182 |
131,085 |
19,507 |
739 |
4,729 |
14,778 |
情绪类别 |
句子示例 |
情绪类别 |
句子示例 |
joy |
Okay, thank you! |
surprise |
Really? |
neutral |
Can I pick it up myself? |
sadness |
I hope this issue can be resolved for me as soon as possible. |
fear |
Afraid I might not be back when the delivery arrives. |
disgust |
Someone I know bought this before and had the same problem. |
anger |
Are you sure I’ll receive it by the [number x]??? |
本实验基于BERT模型进行对话情绪分类,由12个Transformer块、12个自注意力头和768个隐藏单元组成,并使用预训练参数对BERT进行初始化,其他参数则随机初始化。采用AdamW优化器,设置初始学习率为0.001, , ,L2正则化权重衰减为0.01,学习率预热步数为0,使用线性衰减学习率。所有结果为基于5次实验运行的平均值。
作为典型的分类问题,情绪分类的评价标准可以比照普通的分类问题处理,本文采用的评价指标是准确率(Precision)、召回率(Recall)和F1值,如下所示:
(6)
(7)
(8)
P和N表示模型实际的判别情况,T和F评价模型的判别情况正确与否,TP、FP、TN、FN分别表示真正例、假正例、真反例、假反例的样本数量。
为评估SLED-EC模型在客服对话情感识别任务中的表现,本文选择了以下几种对话情感分类模型作为基准,进行对比实验:
1) DMN
2) BERT + MTL
3) DialogueGCN
4) DialogueBERT
模型 |
准确率P (%) |
召回率R (%) |
F1值(%) |
DMN
|
57.06 |
73.39 |
62.03 |
BERT + MTL
|
61.87 |
78.58 |
67.05 |
DialogueGCN
|
59.60 |
76.74 |
64.44 |
DialogueBERT
|
65.12 |
81.85 |
70.18 |
SLED-EC* |
67.78 |
83.81 |
72.36 |
与其他模型相比,SLED-EC更适合处理客服对话中的情感识别任务。通过情感词典辅助的多任务结构,SLED-EC能够更好地挖掘特定场景中词语的不同语义和情绪强度。结合词级别和句级别任务,SLED-EC能够捕捉到更多细粒度情感变化,并结合上下文信息准确理解情绪转折,从而在整体性能上表现突出。尽管DMN、BERT + MTL和DialogueGCN在某些方面表现出色,但在处理多轮对话和电商场景下的情绪交互时,它们的局限性开始显现。SLED-EC则通过有效整合上下文信息和情感词,展现了更强的适应性。
在
消融实验评估了不同模型配置对情感分类性能的影响,具体设置如下:
1) 单句子输入模型:即不带对话上下文的单句子输入。将对话中的单个句子直接输入BERT模型进行情绪识别,忽略上下文信息和词级别的情绪标签,为后续实验提供基准。
2) 词级别与句子级多任务情感分类方法:结合SenticNet情感词典,在BERT模型中加入词语级情绪识别任务,以验证词级任务是否能提升句子级情绪分类的性能。
3) 跨句子上下文信息的情感分类方法:将对话中前后关联的句子作为长序列输入模型,并通过Character Embeddings区别说话人,验证上下文信息对情感理解的增强效果。
4) 情感词辅助的跨句上下文对话情绪分类模型(SLED-EC):同时结合词语级情绪识别与上下文信息,最大化利用对话中的语义与情感细节,以提升模型的情绪分类能力。
句子级 |
词语级 |
上下文信息 |
准确率P (%) |
召回率R (%) |
F1值(%) |
√ |
× |
× |
60.56 |
74.24 |
65.20 |
√ |
√ |
× |
62.74 |
77.66 |
67.26 |
√ |
× |
√ |
64.36 |
80.01 |
69.11 |
√ |
√ |
√ |
67.78 |
83.81 |
72.36 |
实验结果如
当进一步加入上下文信息时,模型的准确率、召回率和F1值分别提升至64.36%、80.01%和69.11%。上下文信息的引入使模型能够理解对话中的前后关系,更好地捕捉情感转折,提升了情感分析的准确性。在多轮对话中,用户情绪常因客服的回应逐步变化,这种变化仅靠单句或词语级别分析难以捕捉,需借助上下文信息来识别。
结合句子级、词语级情感识别及上下文信息的SLED-EC模型表现最佳,其准确率、召回率和F1值分别达到了67.78%、83.81%和72.36%,相比基础配置提升了7.22、9.57和7.16个百分点。多层信息的融合使SLED-EC能更精确地捕捉情感细节与情绪动态变化,不仅提高了整体性能,还增强了其在复杂情感交互场景中的适应性和灵活性。
如
在对话过程中,客服的情绪表达多为积极或中性,而用户的情绪则更为多变。因此,本文优先考虑用户的情绪,并定义了以下四种情绪波动类型:
1) 情绪回归型:用户起初表达出失望或愤怒等负面情绪,在客服安抚下情绪逐渐回归至中立或积极状态。
2) 情绪转折型:由于问题未能及时解决或服务未达用户预期,用户情绪从积极转向负面。
3) 情绪稳定型:用户情绪在对话过程中波动较小,保持相对稳定。
4) 情绪波动型:用户情绪在对话中多次变化,出现显著的波动。
结合
现有的对话情感分析方法在处理多轮对话的上下文语境以及电商服务场景下的细粒度情感分析方面,仍存在一定的局限性。特别是在多轮对话中,准确捕捉上下文关联和角色间的情感交互仍然是一个挑战。针对这一问题,本文提出了一种结合BERT模型和SenticNet词典的情绪分类模型。通过整合词语级和句子级的情感识别,模型能够有效提升对话中每个语句的情感理解能力,尤其在情感波动和角色情感交互复杂的场景中展现出优异表现。实验结果表明,本文模型在客服对话情感分析任务中表现出较高的准确性,尤其在情感变化检测和长对话情感预测方面具有明显优势。与现有方法相比,本文模型不仅提升了对各类情感的识别精度,还在情感波动场景下提供了更细致、更完整的分析,为电商服务中的用户满意度评估提供了更有力的支持。
尽管SLED-EC模型在实验中取得了较好的效果,但由于所使用的数据集主要来自于特定电商平台的客服对话,这可能限制模型在其他平台或行业中的泛化能力。数据集中情感类别的分布不均,可能导致模型在少数类情感(如“fear”或“disgust”)上的表现较弱。未来将扩展数据来源,并结合多模态数据(如语音、视频等),以增强模型对对话情感的理解能力。考虑到智能客服系统对情感分析的实时性需求,接下来将着重提高模型在动态对话中的响应速度和准确性。同时,情感波动模式和趋势的预测也将成为研究的重点,通过进一步优化模型,推动智能客服系统向更加个性化的方向发展,从而提升用户体验。
*通讯作者。