社会网络中非参数化的事件演化分析
Analysis of Non-Parametric Event Evolution in Social Networks
DOI:10.12677/CSA.2018.86109,PDF,HTML,XML,下载: 1,223浏览: 1,825
作者:李莹莹*:北京航空航天大学,北京
关键词:事件演化社会网络概率图模型Event EvolutionSocial NetworkProbabilistic Graphical Model
摘要: 社会网络,如微博和Twitter,已经成为数十亿人关注事件的重要平台。人们不仅关注所发生的事情,更关注事件的演化。因此,监控社交网络中事件的发展是至关重要的。在新闻文章和短文本(社交网络中的文本)中有一些挖掘事件演化的研究。由于短文的形式比新闻文章短,适用于新闻文章的方法不能直接应用于社交网络。一些应用于短文本的方法不考虑语义信息,有些方法无法发现长期跨度事件的演化,特别是中间有间断的事件。鉴于此,我们提出了一种非参数的方法来发现事件演化(故事情节)。首先使用贝叶斯模型测量短文本的语义相关性。其次,使用基于嵌入表示的算法来生成长期和短期事件的故事线。我们进一步使用Dirichlet过程自动学习适当数量的主题。与其他方法相比,三个人工标记数据集的详细实验结果证明了我们方法的有效性。
Abstract:Social networks, such as Weibo and Twitter, have become important platforms where billions of individuals follow events. People not only concern about what happened, but also pay more attention to how the event gradually progresses. Therefore, it is crucial to monitor the development of events in social networks. There are some research mining event evolutions in news articles and short texts (texts in social networks). Methods designed for news articles cannot be directly applied to social network due to the fact that short texts are more ill-formed and shorter than news articles. Some methods that apply to short texts do not take into account semantic information, and some cannot discover evolution of long-term spanning events, especially intermittent events. In light of this, we propose a non-parametric method to discover event evolution (storylines). Firstly, a bayesian model is used to measure semantic correlation of short texts. Secondly, an embedded representation-based algorithm is used to generate storylines for long-term and short-term events. We further use dirichlet process to automatically learn an appropriate number of topics. In comparison with other methods, detailed experimental results on three manually labeled data sets demonstrate the effectiveness of our method.
文章引用:李莹莹. 社会网络中非参数化的事件演化分析[J]. 计算机科学与应用, 2018, 8(6): 976-985. https://doi.org/10.12677/CSA.2018.86109

1. 引言

社会网络已经成为人们分享和传播新闻的主流平台。社会网络每天都会产生大量的用户产生内容(User-Generated Contents)。对于UGC流,人们很容易感到不知所措。因此迫切需要从社会网络自动生成事件的演化。

目前有挖掘事件演化的相关研究。这些研究可大致分成两类。一类是基于词相似度的方法。Pei等人 [1] 提取用基于子图的增量追踪框架追踪事件演化。该方法用Jaccard相似度作为文本相似度的度量方式。词相似度基于文本重合的词越多,文本越相似的假设。这种假设在现实中有可能不成立。很多时候文本的相似度依赖于潜在的语义关联,而不是表面的词重合度。为弥补词相似度的不足,另一类基于隐式语义相似度的方法被提出。Kalyanam等人 [2] 用非负矩阵分解(NMF)捕捉事件随着时间的变化。该方法只能发现相邻时刻的事件的演化,不能发现长期跨度的事件演化。Zhou等人 [3] 提出一个无监督的贝叶斯模型(DSDM)提取故事情节的结构化表示和演化模式。DSDM和NMF捕捉文档级别的词共线模式。因为短文本中文档级别词共线的稀疏性,这些方法不能直接用于短文本中。

为解决上述方法存在的不足。我们提出一个非参数的方法构造社会网络中的事件演化。首先,我们从微博中检测子事件。然后,我们提出一个非参数的方法提取子事件的隐式语义信息。最后我们基于子事件的隐式语义信息生成事件演化。本文的主要贡献如下所示:

· 我们提出一个非参数化的概念图模型,Biterm Topic Model with Dirichlet Process (BTMDP),提取子事件的语义信息。

· 我们提出基于子事件语义信息的故事情节生成算法(LineGen)。

· 通过在三个数据集上的实验证明我们方法较已有方法的有效性。

本文的其余部分组织如下。首先,我们介绍相关工作。然后,我们介绍我们的方法。随之,我们展示实验与结果。最后,我们总结提出的方法并展望未来的工作。

2. 相关工作

我们的工作与三方面的研究相关。1) 主题检测与追踪(TDT)。TDT旨在基于主题对文本分组,检测异常的和以前未报道的事件,和追踪某主题下事件的发展 [4] 。2) 时间线(timeline)生成。时间线是一种可使分析任务更简单和更快速的可视化技术 [5] 。3) 故事情节(storyline)生成。故事情节生成旨在提取特定新闻主题下的事件并展示事件随着时间的演化过程 [6] 。

故事情节生成相关的研究大致可分为两类:基于新闻文本和基于社会网络文本。1) 基于新闻文本。Wang等人根据用户给定的关键词形式化故事情节为最小权重连通适配集问题 [4] 。这类方法的结果严重依赖于用给的查询词。ASG [7] 、MEA [8] 和CHARCOAL [9] 基于概率图模型在新闻文本上生成故事情节。新闻社会网络文本的口语化、错别字和短文本等特性使得基于新闻文本的方法直接用于社会网络文本可能得不到理想的效果。2) 基于社会网络文本。基于社会网络文本的方法大制可分为两种:基于词相似度的方法和基于隐式语义信息的方法。Lin等人基于文本的余弦相似度用图优化的方法生成故事情节 [10] 。词相似度不足以发现子事件的相关性。LTECS [11] 基于非负矩阵分解(NMF)学习相邻时刻的事件演化。Lee等人 [12] 基于LDA的KL散度发现事件间的关联关系。由于社会网络文本的稀疏性,捕捉文档级别词花线模式的模型,LDA和NMF,不能直接用于社会网络中。

3. 论文方法

基于已有算法的不足,我们提出一种挖掘事件演化的算法。社会网络文本具有不规范、文本较短等特性。单个微博可能只包含事件的部分信息。我们用已有的成熟的子事件检测算法检测能表示完成信息的子事件。事件间存在演化关系,文本间的词相似度不能有效挖掘演化关系。我们用主题模型挖掘子事件内在的主题结构。依据子事件的主题结构信息有效挖掘子事件的演化关系。

本节我们首先介绍挖掘子事件内在主题结构的融合狄利克雷过程的词对主题模型。然后,我们介绍基于子事件主题结构挖掘子事件演化关系的过程,即故事情节生成过程。

3.1. 融合狄利克雷过程的词对主题模型(BTMDP)

两个文本之间的相似性不仅取决于词共线程度,还取决于语义关联。主题模型是一种挖掘语义关联的方式。但传统的主题模型(如LDA和PLSA)遭受严重的数据稀疏短文本 [13] 。BTMDP在语料库级别建模词共现模式,因此BTM适用于社会网络的短文本。为了方便推导,我们先解释BTMDP使用到的符号,如表1所示。

其中,词对是由两个词构成的组合( w 1 , w 2 )。假设一个文章的词集合为{计算机,应用,发展},该文章的词对集合为{(计算机,应用),(计算机,发展),(应用,发展)}。

3.1.1. BTMDP的概率图模型和生成过程

Cheng等人 [14] 提出一个对整个语料库上词共现模式的生成过程建模的词对主题模型(BTM)。BTM需要提前指定主题数。BTM的时间复杂度为O (K|B|)。主题数K越大,模型需要的时间越多。主题数越小,主题的粒度越粗。最好的方式是模型自动学习合适的主题数。基于这个想法,我们提出一个融合狄利克雷过程的词对主题模型(BTMDP)。因为狄利克雷过程的特性,主题数不需要人工干预即可自动学习。BTMDP可以看成是BTM的无限扩展模型。BTM和BTMDP的概率图模型如图1所示。

当主题数K成为无穷时,BTM成为BTMDP。BTMDP的生成过程如下所示:

Table 1. Notations of symbols

表1. 符号的注释

(a) PGM of BTM (b) PGM of BTMDP

Figure 1. PGM of BTM and BTMDP

图1. BTM和BTMDP的概率图模型

(1)

z b | θ M u l t i ( θ ) (2)

ϕ k | β D i r ( β ) (3)

b | z b , { ϕ } k = 1 p ( b | ϕ z b ) (4)

其中“ X S ”表示X服从于S的分布。Multi()表示多项分布。Dir()表示狄利克雷分布。

3.1.2. BTMDP的推断过程

b是由两个词( w i , w j )组成的词对。 p ( b | ϕ z b ) = p ( w i | ϕ z b ) p ( w j | ϕ z b ) 。与BTM相同,BTMDP没有直接对文章的生成过程建模。在主题学习过程我们不能直接推断文章的主题分布。Yan等人 [13] 认为文章的主题分布等于文章生成的词对的主题分布的期望。即:

P ( z | d ) = b P ( z | b ) P ( b | d ) (5)

P ( z | b ) = P ( z ) P ( w i | z ) P ( w j | z ) z P ( z ) P ( w i | z ) P ( w j | z ) (6)

在BTMDP中不能直接推断。我们采用吉布斯抽样近似推断。在讨论BTMDP的抽样算法前,我们先了解一个BTM的抽样过程。BTM中,词对b选择一主题的概率如式(7)所示。

p ( z b = z | Z ¬ b , B , α , β ) p ( z b = z | Z ¬ b , B ¬ b , α , β ) p ( b | z b = z , Z ¬ b , B ¬ b , α , β ) p ( z b = z | Z ¬ b , α ) p ( b | z b = z , B z , ¬ b , β ) n z + α / K | B | 1 + α ( n w i | z + β ) ( n w j | z + β ) ( w n w | z + M β ) ( w n w | z + M β + 1 ) (7)

p ( z b = z | Z ¬ b , B , α , β ) n z | B | 1 + α ( n w i | z + β ) ( n w j | z + β ) ( w n w | z + M β ) ( w n w | z + M β + 1 ) (8)

p ( z b = K + 1 | Z ¬ b , B , α , β ) p ( z b = K + 1 | Z ¬ b , α ) p ( b | z b = K + 1 , β ) ( 1 k = 1 K p ( z b = k | Z ¬ b , α ) ) p ( b | z b = K + 1 , β ) α | B | 1 + α β 2 ( M β ) ( M β + 1 ) (9)

当K趋于无穷时,词对b选择一个存在的主题的概率如式(8)所示。词对b选择一个新主题的概率如式(9)所示。根据词和词对的主题分布。我们可根据式(10)和式(11)评估主题的词分布和主题分布。

p ( w | z ) = n w | z + β w n w | z + M β (10)

p ( θ z ) = n z + α / n t | B | + α (11)

BTMDP的吉布斯抽样过程如算法1所示。因为空间限制,我们略去了吉布斯抽样的详细推导。原理和推导过程请参考 [13] [14] 。

3.2. 故事情节生成(LineGen)

观察发现,相同故事情节下,一些子事件的相似度更高。如表2所示,子事件se1和se2关于美国总统候选人选择竞选搭档。子事件se3和se4是关于总统候选人的支持率。首先,我们用pline(定义1)表示相似度更高的子事件集合。然后,我们基于DBSCAN的思想将pline聚成故事情节。

定义1:pline是一个子事件集合。Pline中所有子事件有相同的top one维度。我们用二元组 表示。其中(1) centroid是pline的中心,(2) selist是pline的子事件集合。

c e n t r o i d = ( c e n 1 , c e n 2 , , c e n K ) c e n i = s s e l i s t s i m = 1 K c e n m (12)

高维数据经常包含大量噪音特征,这不利于数据处理 [15] 。为了降低噪音和后序计算需要的时间。我们为每个子事件提取top-k个特征。假设我们子事件的嵌入表示有K维。tse表示子事件的top-k个特征。子事件的表示如式(13)所示。

s i = { s i j t s e s j i t s e 0 others (13)

其中,子事件由前top-k个维度的特征表示。除前top-k维度外,其它维度的值为0。例,K为4的一个子事件的嵌入表示为embed_representation (subevent) = (0.2, 0.3, 0.4, 0.1),如果topk = 2,则representation (subevent) = (0,3/7,4/7,0)。

4. 实验和评价

针对上一节中提出的方法,我们在本节进行实验验证。首先,我们介绍数据集。然后我们评价故事情节生成的性能,并展示我们提出的方法较于已有方法的优势。我们的算法包括两步,子事件检测和故事情节生成。有大量关于子事件检测的相关文献。我们从中选择一个成熟的子事件检测算法。因此我们不再评价子事件检测的性能。

4.1. 数据集和注解

数据集是依据新浪微博用子事件检测算法检测的子事件。子事件用6元组<时间、地点、参与者、核心词、描述词,描述>表示。我们请志愿者标注具有演化关系的子事件,即标注子事件所属的故事情节,具有演化关系的子事件为一个故事情节。我们用两种方式标注数据。两种方式的不同在于选择子事件数据集的方式。方式一为将某时间段内所有子事件作为标注使用的子事件数据集。方式二是与关键词相关的子事件作为子事件数据集。依据两种标注方式我们构造了三个数据集,基于方式一构造一个故事情节集,基于方式二构造两个故事情节集。DS11表示基于方式一从时间段2016年6月到2016年8月标注的故事情节集,该故事情节集包含416个子事件。DS21和DS22表示基于方式二构造的两个故事情节集。DS21是基于关键词丝绸之路标注的故事情节集,该故事情节集包含97个子事件。DS21是基于关键词萨德和亲信干政门标注的故事情节集,该故事情节集包含85个子事件。标注统计如表3所示。

4.2. 实验结果与分析

在本小节,我们首先介绍使用的评价指标。然后,我们介绍所有的对比方法。最后,我们呈现实验

Table 2. The example that some subevents are closer than others in a storyline

表2. 相同故事情节下,一些子事件相似度更高的例子

Table 3. Annotation statistics

表3. 标注统计

结果并展示我们方法的优势。

4.2.1. 评价指标

在三个故事情节集中,子事件标注有故事情节。真实的故事情节集称为 C ( | C | = L ) 。基于算法生成的故事情节集成为 M ( | M | = T ) 。一般来讲, T M 。我们的方法可生产任意数量的故事情节。依据真实的故事情节集C和生成故事情节集M,我们构造一个混乱矩阵(confusion matrix) CM。 是真实故事情节Cl和生成故事情节Mt交集的基,即 C M ( l , t ) = | C l M t | 。对任意标注故事情节 C l C ,我们用 t o p k ( C l ) 表示生成故事情节集中与其交集最大的top-k个故事情节。我们基于式 计算准确率和召回率。

P r e c i s i o n K = l = 1 L | C l t o p K ( C l ) | l = 1 L | t o p K ( C l ) | R e c a l l K = l = 1 L | C l t o p K ( C l ) | l = 1 L | C l | (14)

其中,Cl表示一个标注故事情节。 t o p k ( C l ) 表示生成故事情节集中与标注故事情节Cl交集最大的top-k个故事情节。|.|表示基,即集合中的元素个数。 表示集合交集。计算准确率和召回率时,我们设置K = 2。

4.2.2. 对比方法

我们的方法(BTMDP + LineGen)首先用BTMDP学习子事件的主题结构,即为子事件生成主题嵌入表示。然后,我们的方法用LineGen生成故事情节。我们的对比方法如下所示:

· DBSCAN:该方法用DBSCAN对子事件聚类。一个簇称为一个故事情节。

· NMF + DBSCAN:该方法首先用NMF生成子事件的嵌入表示,然后基于嵌入表示用DBSCAN对子事件聚类。一个簇称为一个故事情节。

· BTM + DBSCAN:该方法首先用BTM生成子事件的主题嵌入表示,然后基于主题嵌入表示用DBSCAN对子事件聚类。一个簇称为一个故事情节。

· BTMDP + DBSCAN:该方法首先用BTMDP生成子事件的主题嵌入表示,然后基于主题嵌入表示用DBSCAN对子事件聚类。一个簇称为一个故事情节。

· NMF + LineGen:该方法首先用NMF生成子事件的主题嵌入表示,然后基于主题嵌入表示用LineGen生成故事情节。

· LDA + LineGen:该方法首先用LDA生成子事件的主题嵌入表示,然后基于主题嵌入表示用LineGen生成故事情节。

· BTM + LineGen:该方法首先用BTM生成子事件的主题嵌入表示,然后基于主题嵌入表示用LineGen生成故事情节。

LDA + DBSCAN将所有的子事件聚到一个簇,我们展示LDA + DBSCAN的效果。在LDA、BTM和BTMDP中,吉布斯抽样迭代1000次。在需要指定主题数的NMF、LDA和BTM中,我们设定主题数为250。在LDA、BTM和BTMDP中,参数 α β 分别为500和0.02。在NMF + DBSCAN、BTM + DBSCAN和BTMDP + DBSCAN中,我们使用的距离函数如式(15)所示。在NMF + LineGen、BTM + LineGen和BTMDP + LineGen中,我们使用的距离函数如式(16)所示。在LineGen中我们设置参数top-k为5。所有的结果是十次结果的平均值。

d i s ( s e 1 , s e 2 ) = 1 cos ( s e 1 , s e 2 ) (15)

d i s ( p 1 , p 2 ) = 1 0.7 * J a c c a r d ( p 1 , p 2 ) 0.3 * cos ( p 1 , p 2 ) (16)

4.2.3. 结果与分析

三个故事情节集,DS11、DS21和DS22,的准确率和召回率如图2所示。在三个数据集上,BTMDP + LineGen和BTM + LineGen的准确率和召回率的曲线在BTMDP + DBSCAN和BTM + DBSCAN之上。这说明LineGen方法的有效性。LineGen使用子事件的top-k个特征减小子事件特征的噪音和后序计算需要的时间。LineGen使用故事情节中子事件的特性,一些子事件的相似度更高,来提高准确率和召回率。BTMDP + LineGen比BTM + LineGen有更高或相等的准确率和召回率。BTMDP可自适应的学习合适的主题数,避免主题数过大或过小。BTMDP + LineGen和BTM + LineGen的准确率和召回率的曲线在DBSCAN之上,这说明子事件的主题结构有利于事件演化的挖掘。NMF + DBSCAN,NMF + LineGen and LDA + LineGen在三个数据集上比其他方法的效果更差,这说明对文档级别词共现模式建模的主题模型在短文本上得不到理想的效果。BTMDP是适用于短文本的主题模型。

我们也对比了我们的方法在不同的topk数下的实验结果,如图3所示。top-k为5的性能优于或等于top-k为all的性能。这说明,选择有区别性的特性对性能的提升有帮助。

(a) DS11、DS21和DS22结果使用的图例(b) DS11故事情节集上的实验结果(c) DS21故事情节集上的实验结果(d) DS22故事情节集上的实验结果

Figure 2. Experimental result in three storyline sets

图2. 三个故事情节集上的实验结果

(a) DS11上不同特征数的实验结果(b) DS21上不同特征数的实验结果(c) DS22上不同特征数的实验结果

Figure 3. Experimental result of BTMDP + LineGen with different top-k numbers

图3. BTMDP + LineGen在不同的top-k下的实验结果

5. 工作总结与展望

在社会网络挖掘事件演化具有重要意义。我们提出一个非参数化的方法在社会网络上挖掘事件的演化。首先,我们用一个子事件检测算法检测子事件。然后,我们提出非参数化的贝叶斯模型(BTMDP)生成子事件的语义信息。最后,我们用基于子事件嵌入表示的故事情节生成算法(LineGen)生成故事情节。实验结果表明我们的方法比已有的方法有较好的准确率和召回率。考虑到社会网络数据的动态性,我们将设计增量算法在社会网络挖掘事件的演化。我们将设计一个展示系统便于用户对事件演化的理解。

参考文献

[1] Lee, P., Lakshmanan, L.V.S. and Milios, E.E. (2014) Incremental Cluster Evolution Tracking from Highly Dynamic Network Data. Proceedings of the IEEE 30th International Conference on Data Engineering, Chicago, IL, 31 March-4 April 2014, 3-14.
https://doi.org/10.1109/ICDE.2014.6816635
[2] Janani, K., Sumithra, V., et al. (2016) From Event Detection to Storytelling on Microblogs. Proceedings of the IEEE International Conference on Advances in Social Networks Analysis and Mining, San Francisco, CA, 18-21 August 2016, 437-442.
[3] Zhou, D., Xu, H. and He, Y. (2015) An Unsupervised Bayesian Modelling Approach for Storyline Detection on News Articles. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, Lisbon, Portugal, 17-21 September 2015, 1943-1948.
https://doi.org/10.18653/v1/D15-1225
[4] Wang, D., Li, T. and Ogihara, M. (2012) Generating Picto-rial Storylines via Minimum-Weight Connected Dominating Set Approximation in Multi-View Graphs. Proceedings of the 26th AAAI Conference on Artificial Intelligence, AAAI, Menlo Park, CA, 683-689.
[5] Yong, C., Hui, Z., Wu, J.J., et al. (2016) Modeling Emerging, Evolving and Fading Topics Using Dynamic Soft Orthogonal NMF with Sparse Representation. Proceeding of the 2015 IEEE International Conference on Data Mining, Piscataway, Atlantic City, NJ, 14-17 November 2015, 61-70.
[6] Zhou, D.Y., Xu, H.Y., Dai, X.Y., et al. (2016) Unsupervised Storyline Extraction from News Articles. Proceedings of the 25th International Joint Conference on Artificial Intelligence, Morgan Kaufmann, Burlington, MA, 3014-3021.
[7] Hua, T., Zhang, X.C., Wang, W., Lu, C.-T. and Ramakrishnan, N. (2016) Automati-cal Storyline Generation with Help from Twitter. Proceedings of the 25th ACM International Conference on Information and Knowledge Management, Indianapolis, Indiana, 24-28 October 2016, 2383-2388.
https://doi.org/10.1145/2983323.2983698
[8] Huang, L.F. and Huang, L.E. (2013) Optimized Event Storyline Generation Based on Mixture Event-Aspect Model. Proceedings of the 2013 Conference on Empirical Methods in Natu-ral Language Processing, Seattle, Washington, 18-21 October 2013, 726-735.
[9] Tang, S.L., Wu, F., Li, S., Lu, W.M., Zhang, Z.F. and Zhuang, Y.T. (2015) Sketch the Storyline with CHARCOAL: A Non-Parametric Approach. Proceedings of the 24th International Joint Conference on Artificial Intelligence, Buenos Aires, 25-31 July 2015, 3841-3848.
[10] Lin, C., Lin, C., Li, J.X., Wang, D.D., Chen, Y. and Li, T. (2012) Generating Event Storylines from Microblogs. Proceedings of the 21st ACM International Conference on Information and Knowledge Management, Maui, Hawaii, October 29-November 2 2012, 175-184.
https://doi.org/10.1145/2396761.2396787
[11] Kalyanam, J., Mantrach, A., Saez-Trumper, D., Vahabi, H. and Lanckriet, G.R.G. (2015) Leveraging Social Context for Modeling Topic Evolution. Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, Sydney, NSW, 10-13 August 2015, 517-526.
https://doi.org/10.1145/2783258.2783319
[12] Lee, P., Lakshmanan, L.V.S. and Milios, E.E. (2014) CAST: A Context-Aware Storyteller for Streaming Social Content. Pro-ceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management, Shanghai, 3-7 November 2014, 789-798.
https://doi.org/10.1145/2661829.2661859
[13] Yan, X.H., Guo, J.F., Lan, Y.Y. and Cheng, X.Q. (2013) A Biterm Topic Model for Short Texts. Proceedings of the 22nd International World Wide Web Conference, Rio de Janeiro, 13-17 May 2013, 1445-1456.
https://doi.org/10.1145/2488388.2488514
[14] Cheng, X.Q., Yan, X.H., Lan, Y.Y. and Guo, J.F. (2014) BTM: Topic Modeling over Short Texts. IEEE Transactions on Knowledge and Data Engineering, 26, 2928-2941.
https://doi.org/10.1109/TKDE.2014.2313872
[15] Nie, F.P., Zhu, W. and Li, X.L. (2016) Unsupervised Feature Selection with Structured Graph Optimization. Proceedings of the 30th AAAI Conference on Artificial Intelligence, Phoe-nix, 12-17 February 2016, 1302-1308.

为你推荐





Baidu
map