A Traditional Chinese Medicine Question Generation Model Based on Multi-Feature Fusion
Objective: To propose a traditional Chinese medicine problem generation model (MFFQG) based on multi feature fusion, in order to improve the problems of missing domain keyword information and non-standard expression of generation problems in existing automatic generation technologies when dealing with specific fields. Method: Using RoBERTa vectors and Wubi vectors to capture the semantic and glyph features of the input sequence, while integrating syntactic information and the constructed main and auxiliary keyword information in the field of traditional Chinese medicine, the obtained multi feature vector information is fed into the UniLM generation model to obtain the generated results, achieving automatic generation of problems in the field of traditional Chinese medicine. Result: The MFFQG model integrates multiple features and achieves 64.93%, 34.57%, and 63.05% in Rouge-1, Rouge-2, and Rouge-L evaluation indicators, respectively. Limitation: The data mainly comes from the field of traditional Chinese medicine, and its effectiveness in other fields needs to be verified. Conclusion: Compared to the comparative model, the MFFQG model can significantly improve the quality of generating traditional Chinese medicine problems.
Traditional Chinese Medicine
中医是中国古代劳动人民智慧的结晶,到今天流传下来的中医药学著作汗牛充栋,对于中医药领域浩如烟海烟海的数据,如何提取高质量的问题用来辅助医生和患者将变得十分重要。问题生成(Question Generation, QG)是自然语言处理(Nature Language Process, NLP)的一个非常重要的分支,旨在通过给定一些文章和相应的答案生成与之对应的自然语言问题。通过自动生成的问题可以取代人工提问,让机器自动提问。随着人工智能技术的不断发展,基于端到端的问题生成技术逐渐成为主流。
然而,随着文本长度的不断增大,序列到序列的问题生成模型不可避免地存在语义信息和句法结构信息丢失的问题。为了改善以上问题,本文以“中医药”问题生成数据集为研究对象,提出一种基于多特征融合的中医药问题生成模型。人工构建的中医药领域主副关键词,基于哈工大LTD工具对输入序列进行句法分析以提取句法信息,利用RoBERTa向量和五笔向量捕捉输入序列的语义特征和字形特征,融合关键词信息和句法信息后,送入端到端的序列生成模型UniLM得到生成问题,实现对中医药领域问题的自动生成。主要包括以下三个创新点:
1) 提出一种基于多特征融合的中医药问题生成模型,融合五笔字型信息、关键词信息和句法信息,经过UniLM生成模型得到模型的最终输出结果,在“中医药”领域上得到更优的效果。
2) 通过人工标注获取“中医药”领域的主副关键词信息。通过专业人员的手动标注,捕捉问题中最重要的语义单元。将主副关键词信息融入嵌入层,使得模型能够更加精确地学习问题的关键语义特征,以提高对问题语义的理解和表达。
3) 将句法依存信息融入输入特征,使得模型更好地理解问题中的语法关系,有助于提高模型对问题结构的理解和把握。
现有的问题生成方法主要分为传统的基于规则的问题生成方法和基于神经网络的问题生成方法。传统的问题生成方法直接利用启发式规则将陈述句转换为疑问句,其严重依赖手工制作的规则和模板,导致生成的问题具有大的同限性。
Dhole等
随着自然语言处理技术的不断发展,各种预训练语言模型对语义特征的捕捉能力不断增强,将其应用到问题生成领域以改善基于规则的方法的不足,成为一种可行的方案。Duan等
基于神经网络的问题生成方法借助预训练语言模型,可以学到丰富的词汇和语义信息,使其在处理歧义性和复杂语境中表现优异,但中医药领域具有大量专有名词,且为方便医护人员和患者的理解,其生成问题有特定的表达格式,而现有方法难以准确处理专有名词并生成特定格式的问题。为了改善以上问题,本文提出一种基于多特征融合的中医药问题生成模型MFFQG,首先通过汉字的字形差异,利用Word2vec词向量模型,采用五笔的方式训练大量中医药领域的词向量信息,融合Roberta语义特征使得模型可以更好的理解中医药词汇信息;而在针对于生成问题的关键词的缺失或者部分缺失问题,本文通过人工标注的形式,标注了大量的问题的主副关键词,加强模型对于关键信息的识别;最后为了加强生成问题的语法格式的问题,采取对生成的问句进行词性标注和句法依存度分析,使之生成的句子更加具备完整的语法特征,提升了中医药问题的生成质量。
在本研究中,我们开发了一个基于多特征融合的中医药问题生成模型(MFFQG),其设计过程严格遵循人类提问的逻辑流程。我们的目标是确保生成的问题不仅在语义上准确,而且符合自然语言的表达习惯。
模型的第一步是预处理阶段,涉及对输入数据的整理和格式化。在这个阶段,我们对原始文本进行必要的清洗和标准化处理,包括去除无关字符、文本分词等。预处理的目的是为RoBERTa模型的输入准备格式化的数据,确保其能够有效解读和处理。
预处理完成后,模型采用RoBERTa预训练模型来处理输入数据。在这一步,输入的句子结构被定型为“[CLS]原文[SEP]问题[SEP]答案[SEP]”。这种特定的结构使得RoBERTa能够清楚地区分原文、问题和答案的不同部分,并有效地提取每部分的语义信息。“[CLS]”标记用于表示句子的开始,而“[SEP]”标记用于分隔原文、问题和答案,确保模型能够理解不同部分之间的关系。
接下来,模型通过人工标注方法提取问题文本中的主副关键词信息,并利用BERT模型进行深入处理。这一步骤关键在于将RoBERTa产生的高质量词向量与通过人工标注获得的关键词信息相结合,从而形成具有丰富语义的表示。这样的结合有助于模型更准确地识别和理解问题的关键要素。
此外,模型还整合了哈工大LTP工具提取的词性和句法依存度信息和Word2vec五笔字型信息,这些信息同样被转换为向量形式,并与先前的词向量结合。这一步骤使得模型能够从词汇层面扩展到句法结构层面,为生成结构合理的问题提供了必要的信息。
最终,经过这些阶段的处理和信息叠加,所得数据被输入到UniLM模型中。UniLM模型利用前面各阶段的输出进行综合分析和处理,最终完成问题的生成。这一流程确保了从文本分析到问题生成各个环节的顺畅衔接和信息的有效传递。
模型的整体架构如
在中医药问题生成模型的开发中,RoBERTa模型的应用阶段扮演着核心角色。RoBERTa (Robustly Optimized BERT Pretraining Approach)是一种基于BERT (Bidirectional Encoder Representations from Transformers)架构的进阶模型,旨在提供更加深入和精确的语言理解能力。它通过对大量文本数据进行深度学习,能够有效地捕获和理解语言中的复杂模式。
在处理流程中,RoBERTa模型接收预处理后按照特定格式组织的文本数据。这些数据被格式化为“[CLS]原文[SEP]问题[SEP]答案[SEP]”的形式,其中“[CLS]”用于标记序列的开始,而“[SEP]”则用于区分原文、问题和答案的不同部分。这种结构的设计关键在于使模型能够清晰地识别和分析原文、问题和答案之间的语义关系。
在RoBERTa模型的处理过程中,它不仅解析原文的内容和上下文,还分析问题的结构和答案的相关性。模型通过深入理解文本中的每个词汇以及它们之间的相互关系,提取出有助于问题生成的关键信息。RoBERTa的强大之处在于它能够理解文本的细微差异和隐含的语义,这对于处理中医药领域中常见的复杂和专业化文本尤为重要。
在中医药问题生成模型中融合Word2vec和五笔字型的训练方法,首先需要理解Word2vec的基本原理以及如何通过它来捕捉词语的语义和结构特征。
Word2vec是一种有效的词嵌入方法,用于将词语转化为向量形式。它基于以下假设:在相似的上下文中出现的词语在语义上是相近的。Word2vec通过训练神经网络模型学习每个词语的向量表示,使得语义相近的词语在多维空间中的向量距离更近。
Word2vec主要有两种模型架构:
连续词袋(CBOW):预测目标词基于其上下文。其基本形式的数学表示为:
其中, 是上下文词的向量的平均,C是上下文词的数量, 是上下文中第i个词的向量表示。
跳跃式Gram (Skip-Gram):通过目标词来预测其上下文。其基本形式的数学表示为:
其中,T是文本中的词汇总数,C是上下文窗口大小,w(t+j)和wt分别是目标词和上下文中的词。
在中医药领域的应用中,结合Word2vec和五笔字型意味着不仅捕捉汉字的语义信息,还要捕捉其基于五笔输入法的结构特征。五笔字型通过汉字结构进行编码,反映了汉字的形状和构成。将这种结构信息融合到Word2vec模型中,可以使得模型不仅理解词汇的语义含义,还能感知其结构特征。
例如,对于中医药术语“气虚”,其五笔编码提供了关于汉字“气”和“虚”结构的信息。将这些结构信息与Word2vec生成的语义向量结合,可以形成一个更全面的词表示,它不仅包含了“气虚”的语义含义,还包括了汉字的结构特性。这种结合可以用以下形式简单表示:
其中,vcombined是融合了语义和结构信息的词向量,Word2vec (term)是通过Word2vec获得的词语的语义向量,而 是基于五笔字型的结构向量。
通过这种方式,中医药问题生成模型能够在生成问题时,更准确地涵盖和反映中医药专业知识的细致差别,同时保留了语义的准确性和表达的自然性。这种方法特别适合处理中医药文本这类需要捕捉细腻语义和复杂结构的领域。
在中医药问题生成模型的构建中,关键词提取与处理阶段对模型性能的影响尤为显著。这一阶段涉及到繁重的人工标注工作,其中专业人员需对中医药文献进行细致阅读,从而识别出文本中的主要和次要关键词。这些关键词是理解和回答问题的基石,因此它们的准确识别对于训练有效的问题生成模型至关重要。为了将这些关键词有效地融合到模型的词向量中,我们采用了一种二值化的方法。这个过程中,每个单词都会被赋予一个二值化标签,关键词标记为1,非关键词标记为0。通过这种标记,模型在处理文本时能够明确区分哪些词是关键词,从而在生成问题时给予更多关注。例如,在分析一个句子如“葡萄干有助于缓解咳嗽”,如果“葡萄干”和“咳嗽”被标注为关键词,那么这两个词在二值化过程中会被分别赋值为1。模型在生成问题时,会着重考虑这些标记为1的词,因为它们携带着回答问题所需的关键信息。这种二值化方法的应用不仅简化了模型对文本的处理过程,而且提升了模型在辨识和利用关键信息上的能力。在中医药领域,这一点尤为重要,因为准确识别和理解文献中的专业术语和关键症状对于生成相关和准确的问题至关重要。总体来说,手动标注和二值化方法的结合提供了一种简洁有效的手段,通过显著地减少非关键词对模型训练的干扰,确保了问题生成模型能够集中资源处理那些对理解问题最为关键的信息。
哈工大LTP (Language Technology Platform)是一个集成了多种语言处理功能的工具,包括但不限于词性标注、命名实体识别、句法依存分析等。在您的研究中,这些功能被用于增强模型对文本的语法和语义分析能力。
词性标注是识别文本中每个词的词性(如名词、动词等)。这一过程对于理解文本的语法结构至关重要。例如,在生成针对中医药领域的问题时,正确区分名词(如草药名称)和动词(如治疗方法)有助于提高问题的准确性和相关性。本模型通过LTP工具标记出输入文本中每个词的词性信息,建立了一个词性表。通过标注的词性信息,对输入文段进行编号。
句法依存分析揭示文本中词与词之间的依存关系。本模型通过简历依存关系表来对,词与词的依存关系。如
在构建针对中医药领域的问题生成模型时,采用特征向量相加的融合方法,能够有效地整合多源信息并增强模型的综合性能。例如,中医药文献中充满了复杂的概念和术语,如“气虚”、“血瘀”等,这些术语背后承载着深厚的理论和实践内涵。在处理这些术语时,Word2vec向量可以捕获词汇的语义空间位置,反映出“气虚”和“血瘀”在中医理论中的语义联系和差异。而哈工大LTP的句法分析则能揭示这些术语在句子中的作用,比如“气虚”可能是症状描述的主体,而“血瘀”可能是导致某些病症的因素。同时,人工标注的关键词信息能够指出问题生成中的重点,确保模型在提出相关问题时,能够准确地聚焦于核心概念。
将这些特征向量相加融合,模型不仅能够以更低的复杂度处理这些信息,还能在不同的特征之间建立联系,实现更为丰富的语义表示。这种融合不仅提升了模型对中医药专有术语的理解能力,还保证了在生成问题时,语言的自然性和专业性得以兼顾。例如,在生成关于“如何治疗气虚导致的头晕?”这样的问题时,模型能够综合利用“气虚”在语义上的含义、其在句法结构中的作用,以及关键词的标注信息,生成一个既符合中医药理论,又表达自然的问题。
此外,这种特征融合方式具有增强模型泛化能力的优点,使其在面对多样化的中医药文本输入时,能够稳定输出高质量的问题。在实际应用中,这意味着无论面对古籍引文、现代研究论文,还是临床案例记录,模型都能够准确捕捉并反映出中医药的专业知识和语言特点,进而生成符合实际应用需求的问题。这对于提升中医药智能问答系统的实用性和用户体验是极其有益的,因为它直接关系到系统能否准确理解用户的咨询内容,并提供专业可靠的回答。通过这样的特征融合,模型能够更好地服务于中医药领域的专业人士和普通用户,帮助他们更深入地探索和理解中医药的深奥知识。
自然语言处理领域中的语言模型可大致分为两类:自编码语言模型和自回归语言模型。其中,自回归语言模型则是基于前文预测后续单词的概率分布,常用于自然语言生成任务中;而自编码语言模型的主要任务是将输入语句编码为一定维度的向量,并在此基础上重构输入语句。自回归语言模型根据前面(或后面)出现的词来预测当前时刻的词,代表模型有ELMO、GPT等,其训练目标符合生成式任务的生成过程而对生成任务(NLG)友好;缺点是只能利用单向语义而不能同时利用上下文信息以至于损失了很多文本信息。自编码语言模型通过上下文信息来预测当前被MASK的词,代表有BERT、Word2Vec等,其优点是能够很好的编码上下文语义信息,在自然语言理解(NLU)相关的下游任务上表现突出;但相对应的生成式问题的支持能力较差,而且由于训练中采用了MASK标记,导致预训练与微调阶段不一致。为了在同一模型中结合两种语言模型的优点,UniLM使用三种不同的任务对模型进行训练,从而使得模型可以用于NLG,同时在NLU任务获得和BERT一样的效果,如
如
本章利用UniLM语言模型完成对槽位上下文的向量化表示。首先将被匹配句子表示为 ,其中j为被匹配句子的长度,槽位的上一句表示为 ,其中m为句子长度,槽位的下一句表示为 ,其中n为句子长度。
将被匹配句子和上下句信息拼为 的字符序列形式作为BERT的输入,其长度为m + n + j + 4,将其输入至UniLM模型,得到标题和段落的向量化表示。经过UniLM输出的向量表示融合了Token Embedding、Segment Embedding和Position Embedding三部分内容,因此包含了尽可能多的文本上下文信息。其中Position Embedding可以对句子的前后关系做出约束,结合语义信息经过模型训练可以学习到被匹配文本与槽位上下句的适配度,提高槽位填充的可读性。
由于问题生成领域的主要研究方向为英文数据集合,且对于中医药领域的数据集相对比较少,本次通过从中国中医网和一些中医药典籍网站中通过爬虫技术进行爬取数据。在关注中医药领域内的常见及复杂病症,例如“肝病”和“风湿”等方面,本文通过开发一个精确的网络爬虫程序,自动化地从目标网站中抓取相关信息。爬虫的操作过程包括发送请求至目标网站,接收网站的响应,以及解析得到的网页内容。
原始爬取的数据中包含大量杂乱无章和不规范的信息,例如不当的标点使用、中英文字符混杂等问题。这些问题需要通过精细的数据清洗和预处理工作来解决,尤其是在标点符号和字符格式的统一方面。此外,爬取过程中不可避免地会引入无关的HTML标签、换行符、多余的空格及其他特殊符号,这些都需要借助正则表达式等技术手段进行有效清除。最终,通过上述处理步骤,构建出一个以(原文,答案,问题)三元组为核心的数据集,如
本实验构建于Cent OS 7.9操作系统之上,采用Python作为主要的编程语言。
名称 | 型号 |
中央处理器 | 12th Gen Intel (R) Core (TM) i5-12400 |
内存 | 金士顿32 G |
显卡 | RTX 3060Ti |
磁盘 | 金士顿500 G |
系统 | Cent OS 7.9 |
框架 | Pytorch2.1 |
编程语言 | Python3.8.1 |
本文采用了MFFQG模型,利用RoBERTa结合主副关键词、五笔信息和句法依存度信息进行融合。RoBERTa作为词嵌入层,由12层网络构成,每个词汇被表示为768维的向量。这些由多种特征生成的768维向量进行了归一化处理。考虑到输入句子长度的统一性,本实验将其设定为128,并将批处理大小设置为32,进行了30个训练周期。为了降低过拟合的风险,设定了0.25的Dropout比率。此外,自注意力机制配置了12个注意力头。相关配置详情参见
参数名 | 参数值 |
序列最大长度 | 128 |
批次尺寸 | 32 |
训练轮数 | 30 |
隐层数 | 12 |
学习率 | 4 e−7 |
Dropout | 0.25 |
注意力头数 | 12 |
1) Seq2seq模型:是一种经典的用于序列到序列任务的深度学习架构,通过编码器–解码器结构实现输入序列到目标序列的转换。
2) NQG模型:是一种基于神经网络的自动问题生成系统。它利用编码器–解码器架构,
通过学习从文本中生成自然语言问题。NQG模型添加了注意力机制和词嵌入技术,以提高生成问题的质量和相关性。
3) BERT + UniLm模型:该模型基于序列到序列架构,将编码器替换为双向Transformer编码模块,并使用UniLM作为解码器。编码器的参数通过BERT模型进行初始化,而解码器则从头开始训练。
从
综上所述,MFFQG模型的实验结果表明,通过融合多种特征,可以显著提升中医药领域问题生成的质量。这一发现不仅为中医药自动问答系统的发展提供了新的思路,也为其他领域的自然语言处理任务提供了参考和借鉴。通过进一步优化和改进,MFFQG模型有望在更多实际应用中发挥更大的作用。
Model | Rouge-1 | Rouge-2 | Rouge-L |
Seq2seq | 40.95% | 23.72% | 39.05% |
NQG | 49.23% | 27.66% | 48.34% |
BERT + UniLm | 57.30% | 29.45% | 55.91% |
MFFQG | 64.93% | 34.57% | 63.05% |
本文面向中医药领域,提出一种基于多特征融合的中医药问题生成模型MFFQG,分别使用主副关键词标注和句法依存度分析方法以改善现有方法中领域关键词信息缺失和生成表达不规范问题,有效提升了中医药领域的问题生成质量并通过对比实验验证了本文方法的有效性。
然而,本文在特征融合阶段只是采用了简单的向量归一化的方式,此处仍有提高空间,未来会研究如何在融合过程中引入深度学习模型,使模型可以自主学习为不同特征赋予不同权重以提升模型效果;同时本文在中医药数据上取得了较好的结果,未来可以研究如何推广到其他领域。