融合领域特征的科技学术会议语义相似性计算方法

2022-08-19 01:32于润羽李雅文李昂
智能系统学报 2022年4期
关键词:学术会议网络结构语义

于润羽,李雅文,李昂

(1.北京邮电大学 智能通信软件与多媒体北京市重点实验室,北京 100876;2.北京邮电大学 经济管理学院,北京 100876)

科技大数据可以定义为与科研相关的活动产生的海量数据[1-2],这些数据数量规模大,特征属性多,内容专业化[3]。科技学术会议数据包含某个领域内的论文集合,利用自然语言处理技术挖掘科技学术会议的潜在信息,判断会议之间的语义相似度,进而构建知识图谱和画像,可以帮助科研人员快速获得有价值的科研信息。

语义文本相似度计算方面主要有基于字符串,基于统计机器学习,基于深度学习的方法。目前基于深度学习的方法应用最为广泛,也取得了最好的效果,但在科技学术会议数据上,常规的相似度计算方法并不能挖掘到潜在的语义信息,无法取得最优的效果。同时基于变换器的双向编码器表示网络(bidirectional encoder representations from transformers,BERT)作为自然语言处理领域目前最杰出的预训练模型,却在语义文本相似度上的表现并不是很好,本文提出了融合领域特征的科技学术会议语义相似度计算方法(siamese-BERT semantic similarity calculation algorithm fused with domain feature,SBFD),利用实体识别和关键词抽取等方法获取会议的领域特征信息,将其作为特征与会议信息共同输入到BERT 网络中,采用孪生网络(Siamese Network)的结构解决BERT的各向异性的问题,并对网络的输出进行池化和标准化,利用余弦相似度计算两个会议之间的相似程度,可以有效提升科技学术会议语义相似度的计算性能。

本文的主要贡献如下:

1) 提出了一种融合领域特征的科技学术会议语义相似度计算方法,在预训练模型的基础上微调,提高语义文本相似度计算的准确性。

2) 利用关键词提取,命名实体识别等技术,获取会议中的领域信息,在序列输入层融合了会议的领域特征,提高语义文本相似度计算的准确性。

3) 采用孪生网络结构,解决BERT 在相似度计算上表现不佳的问题,同时提高模型计算速度。

1 语义相似度计算的研究现状

语义文本相似度计算在文本分类、文本聚类[4-5]、问答系统[6-7]、机器翻译[8-9]等各个自然语言处理研究分支上被广泛使用。语义文本相似度的计算方式主要有基于字符串,基于机器学习和基于深度学习几种方式。其中基于字符串的方法相对简单,直接对两个字符串原始文本进行比较,主要的计算方法有编辑距离[10-11]、Jaccard 相似度[12]等,其原理简单,实现方便,但只能识别字符级别的信息,一般用于文本的快速匹配。基于统计的方法主要有VSM 模型及LDA[13-14]模型等。基于深度学习的方法需要在分布式词向量的基础上进行,词向量技术就是将单词映射成可被神经网络识别的向量。Mikolov 等[15]提出的 word2vec 是最早生成分布式词向量的方法,同时提供了对应的工具。Pennington 等[16]提出Glove 模型,Glove 基于语料库构建了单词的共现矩阵,利用概率论的计算方式,结合构建出的矩阵,计算得出最终的词向量。由于矩阵的构建综合了全局语料,因此Glove在一定程度上考虑了全局信息。

Peters 等[17]提出(来自语言模型的嵌入)(embeddings from language models,ELMO)模型,其先用语言模型在一个大的语料库上学习好词的词向量,此时无法区分多义词。Vaswani 等[18]提出在注意力机制上构建的变换器(Transformer)编码器模型。Radford 等[19]提出 GPT 模型,引入了Transformer 架构。Devlin 等[20]提出的 BERT 模型在Transformer 的基础上,引入了mask 遮盖编码的思路和下句子预测方法,在生成动态词向量上取得了更好的表现。Huang 等[21]提出了基于深度网络的语义模型方法,基于孪生网络架构,模型分为输入层、表示层、匹配层。Palangi等[22]将长短期记忆网络(long short-term memory,LSTM)引入其中,LSTM 作为特殊的循环神经网络,能够考虑到距离更远的上下文信息和一些序列信息,提升了计算的效果。Pontes 等[23]将卷积神经网络(convolutional neural networks,CNN)模型和LSTM模型同时用于孪生网络架构,利用该网络计算语义文本相似度。Reimers 等[24]提出了SBERT 网络结构,SBERT 模型完成仅需5 s,带来了巨大的效率提升。Li 等[25]从BERT 训练向量结果的层面进行了分析,发现了BERT 预训练出的词向量存在各向异性和低频词汇稀疏的问题,在STS12-16和SICK-R 数据集上有更好的表现。

2 SBFD 计算方法

2.1 算法整体结构

将BERT 模型输出的结果进行平滑修正,同时考虑到科技学术会议的特征,提出了SBFD。该方法的整体结构如图1 所示。SBFD 算法由序列输入层、神经网络层、池化及标准化层和相似度计算层4 个部分组成。具体而言,序列输入层作为整个系统结构的输入,融入了领域信息的文本转化为向量,领域信息包括会议中论文研究的技术实体和会议的主要研究方向;在神经网络层采用了BERT 网络模型,基于BERT 中文预训练模型进行,在语义文本相似度场景下微调训练出最优的模型。接下来通过全局平均池化和标准化,缓解BERT 模型训练结果的各向异性的问题;最后在相似度计算层,采用余弦相似度衡量文本相似度。下面将详细描述每层的具体功能与实现原理。

图1 SBFD 算法整体框架Fig.1 Framework of SBFD algorithm

2.2 序列输入层

科技学术会议相似度计算序列输入层将需要对比的相似度的两个文本作为输入,传递到Siamese 网络结构中,标准的Siamese 网络结构如图2 所示,输入为两个要比对的文本序列。孪生网络的优势在于结构简单,训练稳定。在本算法的实现中,根据数据的特点对序列做了优化,因为数据中存在两个会议研究方向相似度很高,但是会议名称单纯从文本层面并没有特别高的相似度,为了降低这个差异的影响,本文中结合了会议领域特征,共同作为序列的输入。如会议标题1:计算机设计国际会议,2:代码生成和优化国际会议。均为计算机体系结构方面的会议,但会议名称并不能看出这两个会议之间的明显关联,计算机设计国际会议和研究信息安全方向的亚洲计算机与通信会议研究主题更加相近,因此将会议的领域信息,包括研究技术实体,研究主题共同作为序列的输入,传递到神经网络层中获取向量。

图2 孪生网络结构示意图Fig.2 Structure of Siamese Network

2.3 神经网络层

基于Siamese 网络结构的网络层可以选取不同的神经网络来实现,例如最基本的RNN 递归神经网络,或者在RNN 基础上进行改进的传统LSTM、双向LSTM、LSTM+Attention、GRU 等,在本文的实现中采用了BERT 作为网络层。BERT 是一种双向编码的预训练模型,训练时同时考虑到了上下文信息。它的网络架构基于Transformer 编码器,采用了Masked Language Model 和下一句预测两个训练任务训练网络参数,MLM 模型主要是用来获取上下文信息,它不像CBOW 一样把所有的词都预测一遍,而是随机遮挡部分字符。传统的语言模型(language model,LM)的获取概率的公式为式中:x1:T=(x1,x2,···,xT) 表示 token 序列,ct=x1t−1。传统语言模型计算 token 出现概率p(x1T)时,采用自回归方式进行因式分解,例如句子x1x2x3出现的概率为p(x1)∗p(x2|x1)∗p(x3|x1x2)。

与传统语言模型不同,BERT 采用MLM 模型屏蔽了输入文本中的一部分文本,训练出模型后再对被屏蔽的文本进行预测,其计算公式为

MLM 模型是针对于单词量级的训练,有许多任务是在句子量级上的。这就需要语言模型理解句子之间的关系,BERT 的下一句预测任务是对于句子级别的任务的训练,利用二值预测方法预测句子X 是否是句子Y 的下一句。思路简单,但在句子级别问题,如智能问答上有很显著的效果。在完成以上两个部分的参数训练后,Bert 采用Transformer 结构,其中编码单元的核心模块利用了自注意力机制。在BERT 模型中,为了扩展模型专注于不同位置的表达能力,采用了MultiHead,即“多头”模式,即

注意力层的输出即为BERT 输出的高维向量。

2.4 池化及标准化层

BERT 网络输出的向量可能存在训练后的向量长度不相同的问题,难以计算这两个不同维度的结果之间的距离,因此采用全局平均池化提取句子级别的语义表示U 和V,得到U 和V 可以进行相似度计算。BERT 训练后的结果由于存在各向异性的问题,影响最终的预测效果,因此在这里增加一层向量标准化(normalized),定义了一个从潜在空间观测空间的可逆变换,标准化流的生成过程描述为

其中pZ(z)为 先验分布,z−>u是可逆变换。

通过变量代换定理,可观测变量x的概率密度函数可以表示为

训练目标为最大化预定好的BERT 句向量的似然函数,即

式中:pZ是标准高斯分布;u是BERT 句向量分布;det 为矩阵的行列式。

2.5 科技学术会议相似度计算层

余弦相似度将文本置于向量空间,更适合本文数据集,解释性较强,因此被选为算法的相似度计算层方法,衡量最后输出的两个文本向量的距离。

2.6 SBFD 计算方法步骤

输入:文档D,包含2n个句子文本序列 α及其语义特征 β,每行有两对文本序列及特征,用空格分隔,分别为 α1、β1、α1、β2。

3 实验结果

3.1 数据集

本实验分为两部分,为了验证方法的泛化能力,在公开数据集上,对没有融合领域特征的方法进行了测试,采用的数据集包括广泛应用的STS12-STS16 数据集,以及SICK-R 数据集。科技学术会议数据集为从知网和万方爬取的文本内容,由于数据需要人工标注,因此在选取了信息科技3 种学科下的数据1000 条,其中800 条用于训练,200 条用于测试,由于受到标注的限制,整体数据量有限,将数据采用交叉验证的方式,取平均结果作为最终模型性能。

3.2 评价指标

语义文本相似度计算算法的指标一般采用相关系数,相关系数常用的有皮尔逊相关系数以及斯皮尔曼相关系数。皮尔逊相关系数,定义为两个变量的协方差除以它们标准差的乘积,计算公式为

斯皮尔曼相关系数为式(1),对于样本容量为n的样本,n个原始数据Xi,Yi被转换成等级数据xi、yi,其中等级数据xi、yi是每个原始数据的降序位置的平均。

已有研究表明,皮尔逊相关系数由于对线性关系更加敏感,离心数据对整体评价指标影响较大,其相关性的内在评估可能会产生误导,皮尔逊相关系数并不是适合检测语义文本相似度任务的最佳选择。而斯皮尔曼相关系数更多的是衡量正相关关系,因此更加适合作为本节的评价指标,故本节采用斯皮尔曼相关系数对结果进行评估。

3.3 实验结果

在本文为实验中,BERT 的batch size 设置为32,学习率设置为1×10-5。向量输出的池化方式全局平均池化,优化器选择Adam,Dropout 设置为0.1。

本节使用斯皮尔曼相关系数对文本相似度分析的结果进行评价,对不同的方法效果进行评估,首先在STS12-STS16 和SICK-R 数据集数据集上,在孪生网络的结构中,对比了GloVe,BERT,SBERT 和SBERT 方法的效果,这里的SBERT 并没有输入领域信息,主要为了验证整体网络框架的能力,实验结果如表1 所示。

表1 不同方法在STS12-16 及SICK-R 上的表现Table 1 Performance of different methods on STS12-16 and SICK-R

表1 中,SBERT 为Siamese-BERT 算法,NSBERT 为标准化后的Siamese -BERT 算法。由表1可以看出BERT 表现欠佳,甚至在某些数据集表现还不如模型更简单的静态词嵌入模型GloVe,分析其中原因,常规的BERT 训练出的结果不具有语义信息,导致两个相似的句子得到的句向量可能有很大的差别,为了解决这个问题,孪生网络的两侧分别输入需要计算语义相似度的两个句子,获得含有句子潜在语义的Embedding。再将其输入到BERT 网络中进行计算,可以看到效果对比与GloVe 和BERT 有非常明显地提升,证明孪生网络结构的有效性。最后,NSBERT 由于对输出的向量进行标准化,解决了BERT 生成向量空间分布不均匀的问题,进一步提升了算法的表现。

根据表1 的分析结果可以证明孪生网络结构在计算语义文本相似度的有效性,因此,在科技学术会议数据集上,均采用孪生网络作为网络框架,在神经网络层选择不同的网络结构进行比较,比较结果如表2 所示。

表2 不同网络结构相似度分析表现Table 2 Similarity analysis performance of different network structures

由表2 的分析可知,不同的神经网络模型在文本相似度计算领域,对于孪生网络有很大的影响。SBFD_1 不考虑领域信息的SBFD 方法,SBFD_2表示包含领域信息的SBFD 方法,SBFD 在不同的网络结构中取得了更好的效果,对比方法包括LSTM、LSTM+ATT,通过LSTM 识别,可能会忽略掉长距离依赖的信息和下文信息,因此在LSTM基础上结合注意力机制,可以考虑到全局语义信息,提高相似度计算的效果。SBERT 利用BERT作为孪生网络的神经网络层,预训练模型提取特征,也取得了很好的效果。最后对比SBFD 方法,对BERT 输出进行标准化,就取得了更好的效果,解决向量分布异化的问题。引入领域信息带来了效果的提升,验证了本文方法的有效性。

3.4 实验参数对性能的影响

将BERT 的batch size 设置不同数值进行实验,确定其对论文数据命名实体识别效果的影响,在信息科技数据集实验结果如图3 所示。

图3 batch size 对信息科技数据集计算效果影响Fig.3 Impact of batch size on the computing effect of information technology datasets

根据图3 可以看出,在信息科技数据集中,batch size 在32 时方法取得了最好的效果,随着batch size 的升高,效果有一定的下滑,但下滑并不明显。因此从信息科技数据集上看,batch size对于方法的效果有一定影响,但并不是正相关或者负相关的趋势,影响程度有限。接下来在工程科技数据集上进行实验,结果如图4 所示。

图4 batch size 对工程科技数据集计算效果影响Fig.4 Impact of batch size on the calculation effect of engineering science and technology datasets

从图4 可以看出,在工程科技数据集中,batch size 在16 时方法取得了最好的效果,与在信息科技数据集中有一定的区别,但是从分布趋势上来看是一致的,即batch size 对于性能有影响,但影响不明显,在某一个值时取得最好效果,随着其继续增大,效果对比16 时有一定的下降。

接下来在农业科技数据集上进行实验,结果如图5 所示。

图5 batch size 对农业科技数据集计算效果影响Fig.5 Impact of batch size on the computing effect of agricultural science and technology datasets

从图5 可以看出,在农业科技数据集中,batch size 在32 时取得了最好的效果,结合图3、4、5 分析可以得出结论:batch size 对整个网络的识别效果有一定影响,batch size 越大,训练速度越快,但太大的batch size 导致模型泛化能力下降。在一定范围内,增加batch size 有助于收敛的稳定性是随着batch size 的增加,方法的性能会下降,对精度造成影响。在训练速度允许的范围内,尽可能的选择一个合适的batch size,可以提高方法的性能。

4 结束语

本文提出了一种融合领域特征的科技学术会议语义相似度计算方法,结合科技学术会议自身的特点,融入研究领域特征,共同作为向量输入。基于孪生网络结构对文本语义相似度进行计算,其中神经网络层选择了BERT 模型,充分利用了BERT 预训练模型的优势,挖掘文本中的深层语义信息。同时,考虑到BERT 在文本相似度计算上计算开销大、准确性的缺点,基于孪生网络结构,构建了SBERT 网络,并对训练出的向量进行标准化,计算文本的相似度。将SBFD 方法与Glove、LSTM 等方法比较,实验结果表明,SBFD在学术会议数据集上有更好的表现。相似度计算的结果可以用于学术会议知识图谱和画像的构建,帮助科研人员快速从中获取到想要的科研信息。

猜你喜欢
学术会议网络结构语义
真实场景水下语义分割方法及数据集
第九届全国科学社会学学术会议通知(第一轮)
快递网络结构研究进展
第八届全全科学社会学学术会议通知
基于AutoML的保护区物种识别①
第十七届CCF 全国嵌入式系统学术会议(ESTC2019) 通知
基于时效网络的空间信息网络结构脆弱性分析方法研究
“吃+NP”的语义生成机制研究
基于互信息的贝叶斯网络结构学习
情感形容词‘うっとうしい’、‘わずらわしい’、‘めんどうくさい’的语义分析