摘要
学术论文推荐旨在为研究人员从海量学术资源中快速筛选出感兴趣的论文。现有论文推荐方法主要基于论文标题等文本内容和引用关系等进行推荐,使得蕴含丰富语义的多源学术信息的表示学习不够充分,制约了推荐准确度的进一步提升。同时,当前方法往往关注论文推荐的准确性,而忽略了可解释性,降低了论文推荐系统的可信度和用户满意度。为解决上述问题,本文提出了一种融合异质图表示学习与注意力机制的可解释论文推荐方法,该方法能够有效利用异质学术图中的语义信息,为推荐结果提供文本解释说明。具体来说,首先,提出了一种基于异质图表示学习与注意力机制的论文推荐模型,融合多源学术信息来构建语义丰富的异质学术图,并利用注意力机制学习不同节点和元路径的重要性,以获得更准确的节点表示。其次,提出了一种基于特征的文本解释生成模型,该模型将可解释文本生成方法引入论文推荐场景,能够在为作者提供推荐列表的同时生成文本解释,以告知其推荐缘由,从而提高论文推荐的可解释性。最后,构建了一个包含论文元数据、特征词、引用上下文的学术数据集,基于该数据集的对比实验结果表明,本文提出的基于异质图表示学习与注意力机制的论文推荐模型推荐准确度更高,解释生成模型能够为论文推荐结果提供质量较高的可解释文本说明。
0 引 言
随着科学技术的快速发展和人类对知识的追求,越来越多的研究人员在各自领域不断进行探索和实验,并将研究成果以科技论文的形式进行发表,科技论文数量呈现爆发式增长。因此,如何在海量科技论文中找到全面的、相关的参考文献成为了学术研究的关键。为了提高效率,一些新兴工具应运而生,例如,文献管理软件Mendele
现有论文推荐方法包括基于内容的论文推
为了充分利用学术辅助信息,异质图被引入学术推荐研
推荐系统的可解释性研究主要聚焦于商品推荐、电影推荐等领
图1 可解释论文推荐示例
针对上述问题,本文提出了一种基于异质图表示学习与注意力机制的可解释论文推荐方法(explainable paper recommendation,EPRec),能够在提高推荐准确度的同时,为推荐结果提供有效的可解释文本说明。本文的主要贡献如下。
(1)提出了一种融合异质图表示学习与注意力机制的论文推荐模型,能够充分利用多源辅助信息来构建语义丰富的异质学术图。考虑到异质图中各类节点和元路径的重要性差异,使用融合注意力机制的长短期记忆网络模型来学习作者节点与论文节点间的交互表示,从而提高论文推荐的准确度。
(2)提出了一种基于特征的文本解释生成模型。首先,将目标作者发表论文中对参考文献的引用上下文以及待推荐论文的被引上下文类比为文本评论信息,构建引文评论文档。其次,使用特征提取技术从引文评论文档中挖掘出与作者研究兴趣和论文内容都高度相关的特征词。最后,以这些特征为依据,基于门控循环神经网络生成相关性高且更多元化的推荐解释文本。
(3)构建了一个包含论文元数据、特征词、引用上下文等信息的学术数据集。基于该数据集的实验结果表明:①融合异质图表示学习与注意力机制的论文推荐模型相较于传统论文推荐模型效果更好,准确率、召回率等评价指标均有所提升;②在论文推荐场景下获得的文本解释质量较高,能够有效提高论文推荐系统的可解释性。
1 相关研究
1.1 学术论文推荐研究
学术论文推荐旨在对研究者兴趣和论文内容间的相似度等关系进行计算和排名,帮助研究人员快速找到相关的论文,并推荐与研究者的研究兴趣或最相关的前N篇论
早期的论文推荐方法主要为基于内容的论文推
随后,基于协同过滤的推荐方法被引入论文推荐领域,研究者们将作者对论文的引用信息类比为用户-项目评分矩阵,提出了基于协同过滤的论文推荐方法。文献[
为了进一步利用学术数据中的结构信息,研究者们将论文推荐问题建模为引文图挖掘问
由于论文推荐场景下存在如作者、论文、会议等多种实体及发表、引用等多种关系,因此,为了充分利用语义丰富的多源辅助信息,基于异质图表示学习的论文推荐方法受到了关
总之,基于异质图的论文推荐方法能够对多源辅助信息进行建模,有效缓解数据稀疏性问题及冷启动问题,提高了论文推荐的准确度。然而,这些方法大多直接利用随机游走采样节点进行预测,没有区分不同类型的元路径和节点的重要性,导致异质学术图中语义信息的表示不够准确,从而影响论文推荐性能。
1.2 可解释推荐研究
当前,可解释推荐研究主要聚焦于商品推
基于文本生成的可解释推荐在得到推荐结果后,生成文本对结果进行解释,如简单的“与您相似的用户点击过该物品”或复杂的“该物品质量很好,价格很划算”。生成文本解释的方法有两种:基于模板的文本生成和基于自然语言的文本生成。基于模板的方法是先定义一些解释的句子模板,然后利用不同的单词填充模板。例如,文献[
基于模型的可解释推荐旨在从建模角度设计可解释的模型,以增加推荐过程的透明度。文献[
上述研究均依赖于各个推荐场景下的文本评论数据,然而,在论文推荐领域缺乏显式的评论数据以供生成文本解释。因此,如何在论文推荐场景下生成高质量且能准确反映项目特性的解释句子成为一种挑战。
2 相关定义
异质学术图中包含多种类型的实体(如作者、论文、期刊等)以及关系(如撰写、发表、包含等)。本文首先介绍异质图的相关概念和定义。
定义1. 异质
定义2. 网络模
图2 异质学术图相关概念示意图
定义3. 元路
值得说明的是,元路径是一种描述不同类型节点间语义关联的抽象模式,而元路径实例则指的是不同元路径下具体的路径序列。例如,在
3 基于异质图表示学习的可解释论文推荐
图3 EPRec模型框架图
基于异质图表示学习与注意力机制的论文推荐模块包含以下步骤:第一步,构建异质学术图,并根据推荐任务指定元路径;第二步,在异质图中通过随机游走获取不同元路径下的元路径实例,利用融合注意力机制的LSTM(long short-term memory)模型学习作者和论文节点在所有元路径实例下的交互表示;第三步,将目标节点表示和交互表示拼接,并利用MLP(multilayer perceptron)模型对推荐结果进行预测。
基于特征的文本解释生成模块包含以下步骤:第一步,构建引文评论文档;第二步,使用点互信息方法(pointwise mutual information,PMI)提取引文评论文档包含的高频词作为特征;第三步,将作者和论文表示编码后,使用GFRU(gated fusion recurrent unit)模型解码完成解释文本的生成。
3.1 构建异质学术图
本节按照
3.2 基于元路径的节点交互表示学习
本文旨在为作者推荐相关论文。首先,建模时选择起始节点为作者节点、终止节点为论文节点的元路径,如
为了更好地建模序列信息,使用融合了注意力机制的LSTM模
具体来说,随机游走得到的某条元路径实例节点序列的初始嵌入为。其中,k表示元路径的类别;代表时间步,即当前节点是元路径实例节点序列中的第几个节点,其最大值为元路径的长度L;表示当前节点是前一时间步下节点的第n个邻居节点,N表示时间步t下邻居节点的数量。
如
图4 基于LSTM的APTP元路径实例节点序列表示学习
由于元路径实例节点序列中不同邻居节点的重要性不同,因此,需要引入注意力机制来学习其权重,以区分更为重要的邻居节点。具体实现为,计算在时间步t,前一节点的隐层状态与其当前每个邻居节点的嵌入之间的相似性。例如,在
(1) |
其中,是激活函数;tanh是双曲函数;是可学习的参数;zt表示更新门;rt表示重置门;表示候选单元状态;ht表示新的隐藏状态;⊙表示Hadamard乘积。
隐层嵌入与邻居节点嵌入之间的注意力权重系数使用点积进行计算:
(2) |
使用Softmax函数正则化该系数,得到最终的权重:
(3) |
如
(4) |
其中,是元路径实例节点序列中节点的表示。将各个时间步t(t=1,2,3,4)下的输入LSTM模型,并将其隐层状态拼接,得到第k种元路径下作者节点a和论文节点p间的元路径实例的交互表示:
, | (5) |
其中,是连接操作;m表示元路径种类数。
由于在进行作者和论文节点间交互表示学习时,不同元路径的重要性亦不同,因此,通过引入路径级注意力机
具体来说,给定作者嵌入表示、论文嵌入表示和第k种元路径下的元路径实例的嵌入表示,利用Softmax函数来计算该种元路径的注意力权重,将其用于区分不同类型的元路径对作者和论文节点间交互表示的影响:
(6) |
其中,是一个前馈神经网络用来计算相似度。最后,将不同类型元路径的表示进行加权融合得到作者-论文交互表示:
(7) |
3.3 论文推荐
将作者嵌入、论文嵌入和交互嵌入融合成统一表示,并使用MLP模
(8) |
最后,使用负采样技
(9) |
其中,表示预测值;表示真实值,即如果作者a引用过论文p,那么,=1;否则,=0。
3.4 基于特征提取的可解释文本生成
本节为上述得到的推荐结果生成解释文本,分为引文评论文档构建、特征提取和解释文本生成三步。
3.4.1 引文评论文档构建
由于论文推荐场景中缺乏显式的用户文本评论数据,因此,本文将引文信息类比为文本评论信息。具体来说,将作者引用参考文献时的描述语句比作用户对商品的评论数据,而论文被引用时的引文当作商品获得的评论数据。
如
图5 引文评论文档构建示意图
3.4.2 特征提取
在得到作者和论文的引文评论文档后,通过分词及词频统计,筛选出同时在作者引文评论文档和论文引文评论文档中出现频率较高的特征词构成各自的特征集合。然后,基于常用的特征选择技术PM
具体地,给定fq和ft分别为单个特征词,PMI计算公式为
(10) |
其中,表示后验分布概率;表示先验分布概率。
从特征集中选择与特征集中所有特征进行PMI计算,将得分最高的特征作为预测的特征,即,其中,
(11) |
3.4.3 解释文本生成
传统的文本生成模型使用递归神经网络(recurrent neural network,RNN
GFRU模型引入了特征模板的概念,用两个GRU模型分别控制文本的生成和特征的加入,最后使用门控融合单元决定两个GRU模型的重要性,以判断下一个词的生成。如
具体来说,在解释生成部分,首先使用MLP模型对目标作者表示和推荐论文表示(此时,和为经过推荐任务训练优化后的向量表示)进行编码,以便解码的单词序列可以个性化到不同的作者论文引用对:
(12) |
其中,We和be是模型参数;tanh为双曲函数。
将h0作为生成模型的初始表示,即解码器的初始隐藏状态。其他时间步长的隐藏状态可以通过递归地将第时刻的输出和特征表示输入GFRU来计算:
(13) |
如
图6 GFRU融合单元
具体来说,对于上下文GRU,设是前一个时间步的隐藏状态,是前一个时间步生成的单词表示,则当前时间步的隐藏状态可以表示为,的计算方式为
(14) |
其中,和是每一时间步的模型参数;表示GRU中的“更新门”;表示GRU中的“重置门”,分别控制有多少过去的信息需要被保留和遗忘;表示Hadamard乘积。
相应地,特征GRU当前时间步的隐藏状态由前一时间步的隐藏状态和特征单词的表示所决定,即。其具体计算公式与上下文GRU类似,此处不再赘述。
得到上下文GRU和特征GRU在当前时间步的隐藏状态和后,GFU将其融合得到最终的隐藏状态,计算公式为
(15) |
其中,和是需要学习的模型参数;是控制上下文GRU和特征GRU解码重要性的权重系数,即当较小时,当前GFRU的输出主要来自上下文GRU,用于生成一个连贯可读的上下文单词序列,当较大时,则依赖于特征GRU在单词序列中加入特征,以提高解释生成过程的可控性。
在时间步,得到当前的隐藏状态后,将其映射为一个大小为的向量,其中是数据集中构建的词汇表,是词汇表长度。向量中每个元素的值对应词表单词的概率大小,选择概率最大的索引,带入词表得到输出的单词,即
(16) |
其中,和是模型参数;表示当前时间步长预测的单词。
本文采用交叉熵函数来训练解释生成的模块,其计算方法为
(17) |
其中,是作者引用论文时真实描述的句子;是该真实句子中单词的数量。
4 实验构建
4.1 数据集构建
本文构建的数据集来源于S2OR
其中,论文元数据包括论文ID(identity)、作者、摘要等数据。论文结构化全文则保留了整篇论文中有价值的内容,例如,段落中段、章节标题、内联引文以及对其他论文的解析引文链接。本文对论文元数据进行筛选,提取构建学术异质图所需的实体信息:作者、论文和发表场所信息。同时,在对应的结构化全文中,提取文献的引文作为文本评论数据,具体方法如3.4.1节所述。将获取的论文元数据和文本评论数据整合对齐后重新编号以进行后续筛选。
具体来说,首先,选取发表在computer science领域且发表年份不早于2000年的论文。其次,从CCF(China Computer Federation)期刊会议列
对筛选后的论文数据进行分词,并利用TF-IDF方法提取每篇论文的5个高频词形成特征集合,共获得7 529个特征,特征集合中的高频词在推荐部分被作为构建异质图的术语节点T,并且在解释部分利用PMI方法选择相关性最大的高频特征词辅助解释生成。
本文的任务旨在给作者推荐感兴趣的论文,需要保证元路径首尾分别为作者节点类型A和论文节点类型P。由于过长的元路径会存在噪声数据增加计算量,因此,本文选取元路径集{APVP,APAP,APTP}来获取异质学术图中的元路径实例,该元路径长度为4。此外,由于元路径实例数量过多会增加计算
节点类型 | 数量 |
---|---|
作者 | 13 215 |
论文 | 18 641 |
术语 | 7 529 |
发表场所 | 20 |
边类型 | 数量 |
---|---|
A-P/P-A | 37 224 |
P-V/V-P | 18 641 |
P-T/T-P | 21 683 |
P-P | 172 025 |
4.2 对比实验设计
本文提出的EPRec模型分为推荐和解释两个模块,因此,从推荐和解释两个方面设计对比实验。
EPRec:本文提出的可解释论文推荐方法。该方法基于融合注意力机制的异质图表示学习方法来进行推荐。同时,利用GFRU模型为推荐结果生成文本解释。
针对推荐任务的对比模型阐述如下。
(1)BPR(Bayesian personalized ranking
(2)metapath2ve
(3)MCRec(metapath based context for recommendation
(4)BERT-GC
(5)SHARE(systematic hidden attribute-based recommendation engine
(6)EPRec-nonAtt:是EPRec模型的消融模型,该模型基于异质图表示学习进行推荐而忽略了注意力机制,即在学习作者、论文节点的嵌入表示时,不考虑不同类型邻居节点、元路径的影响。
文本解释模块的对比模型阐述如下。
(1)AttSeq2Se
(2)NRT(neural template explanations
(3)PGN(pointer-generator networks
(4)EPRec-GRU:EPRec模型的消融模型,在解释生成时去掉特征GRU单元和融合单元,仅使用上下文GRU单元完成解释生成,以验证引入特征对提高文本生成质量的重要性。
4.3 评价指标设计
在评测模型的推荐性能时,本文采用Top-N排序推荐任务中广泛使用的精确率(precision)、召回率(recall)以及NDCG(normalized discount cumulative gain)作为评估指标。
precision表示预测结果为正例的样本中实际为正样本的比例,其定义为
(18) |
其中,N表示推荐列表里论文的总数量;表示推荐结果列表中第i个结果是否被推荐,若是,则=1,否则,=0。
recall表示预测结果为正的样本中实际正样本数量占全样本中正样本的比例,其定义为
(19) |
其中,D表示全样本中正样本的数量。
值得说明的是,由于数据集中仅包含作者对论文的引用信息,不包含点击、浏览、收藏等其他表示用户兴趣的数据。因此,在实验过程中,正样本来自目标作者引用的论文集合,负样本来自随机选取的没有被该作者引用的其他论文。
NDCG是一种用于评估推荐系统中排序准确性的指标,特别用于度量推荐列表中项目的排序质量,它考虑了每个项目的感兴趣程度及其在推荐列表中的位置,具体计算公式为
(20) |
其中,DCG@N表示在推荐列表的前N个项目中计算得到的折损累计增益;IDCG@N表示在理想排序下,在推荐列表的前N个项目中计算得到的折损累计增益;表示按分数从大到小排序(按照最优的方式对结果进行排序)后,取前个结果组成的集合。
对于可解释模块,本文采用BLEU(bilingual evaluation understudy
(21) |
其中,表示生成的文本;表示在生成的文本中N-gram的个数;表示生成的文本中正确的N-gram的个数。
ROUGE用于统计真实文本中有多少单词被模型所生成,其计算公式为
(22) |
其中,S表示真实文本;表示在真实文本中N-gram的个数;表示真实文本与生成文本共有的N-gram个数。
4.4 实验参数设置
在推荐模块中,本文设置模型学习率为0.001,节点向量嵌入维数为64,正则化系数为0.000 1,对于元路径,采样元路径的最大长度为4。
在解释模块,本文设置GRU的隐层维数为128,学习率为0.000 1,并在引文评论文档的高频词集合中选择前20 000个出现频率较大的单词作为训练文本生成的词汇表V。当生成的句子长度较长时,呈现过多的信息可能会造成用户的视觉压力。因此,在实验中,生成的文本句子的平均长度为30。
5 实验结果分析
5.1 结果分析
5.1.1 推荐结果分析
模型 | precision@10 | recall@10 | NDCG@10 |
---|---|---|---|
BPR | 0.167 0 | 0.288 5 | 0.503 1 |
BERT-GCN | 0.205 1 | 0.339 7 | 0.550 2 |
metapath2vec | 0.219 0 | 0.343 1 | 0.552 6 |
MCRec | 0.236 2 | 0.473 0 | 0.569 8 |
SHARE | 0.257 9 | 0.490 1 | 0.603 3 |
EPRec-nonAtt | 0.230 7 | 0.471 9 | 0.559 9 |
EPRec | 0.263 4 | 0.491 9 | 0.614 5 |
注: 粗体表示指标的最优值。
BERT-GCN提出了一种将文本表示和引文同质图表示相结合的论文推荐方法,由
metapath2vec提出了一种面向异质图的节点嵌入表示方法,相较于同质图,用异质图对论文推荐问题建模能够包含更为丰富的推荐辅助信息,有效缓解了数据稀疏性问题,进一步提高了论文推荐的性能。
MCRec在metapath2vec的基础上,进一步考虑了节点间边的关系,使得推荐准确度得到了进一步提升。MCRec引入了路径交互信息,使用CNN模型学习元路径实例表示,并使用注意力机制区分了不同类型元路径实例表示的重要性。
SHARE作为混合推荐的方法在所有比较方法中获得了较好的性能,它结合了文档相似度、层次聚类和关键字提取的方法,相较于使用简单结构关系的模型,其学习到的表示更为准确。
本文提出的EPRec模型在MCRec模型的基础上进一步考虑了不同元路径的重要性及其所对应的元路径实例序列中不同节点的重要性,对异质学术图中的语义信息进行更为精准的建模。因此,EPRec在precision指标上与BPR、BERT-GCN和metapath2vec相比分别提升了57.72%、28.43%与20.27%。相较于基于元路径的推荐模型MCRec,推荐性能提升了11.52%。相较于混合论文推荐模型SHARE,推荐准确度也有所提升。EPRec-nonAtt消融模型由于忽略了节点表示学习过程中不同类型邻居节点及不同元路径的影响,预测准确度相对较差。
上述对比实验结果表明,基于异质图表示学习的推荐方法相较于传统推荐方法,能够有效利用多源辅助信息缓解数据稀疏性问题。同时,在异质学术图中,融入注意力机制来学习作者与论文节点之间面向元路径实例的交互表示能够提高表示学习的准确度,从而进一步提升推荐性能。
此外,对本文提出的模型EPRec在precision@N(N=5,10,20)上的实验结果进行了比较,其准确度分别为0.182 5、0.263 4和0.218 7。因此,本实验将值设置为10。
5.1.2 解释结果分析
模型 | BLEU | ROUGE-1 | ROUGE-2 |
---|---|---|---|
AttSeq2Seq | 0.459 6 | 0.496 7 | 0.293 7 |
NRT | 0.576 0 | 0.629 1 | 0.514 7 |
PGN | 0.668 5 | 0.720 4 | 0.593 8 |
EPRec-GRU | 0.437 9 | 0.461 2 | 0.287 9 |
EPRec | 0.838 5 | 0.841 9 | 0.786 6 |
注: 粗体表示指标的最优值。
AttSeq2Seq模型是被广泛使用的编码器-解码器模型,编码器和解码器模块均使用LSTM,同时使用注意力机制进一步辅助文本生成。该模型在单词表足够大的情况下能够生成流畅的句子,但是,单词表过大会造成计算负担,降低效率。当单词表较小时,会导致模型无法填补空缺词,使得生成的解释文本不完整。
PGN模型在AttSeq2Seq的基础上进行了改进,既能够通过编码器解码器生成单词,又能够从原文中复制单词表没有覆盖的单词,解决了空缺词的问题,可以生成清晰、完整的解释句子。但没有特征词的引导,生成的句子相关度不够高,容易生成重复句子。
NRT模型则选择LSTM模型的变体GRU模型作为主要单元,该模型将解释生成转换成归纳问题,将作者和论文的引文评论文档作为输入,然后进行摘要总结,生成简短的句子作为解释。简短的解释同样可以避免出现空缺词,但是无法完整反映被推荐论文的整体思想。
本文提出的模型EPRec通过引入特征GRU模块解决了空缺词问题,生成的句子更加流畅,同时特征词的引入使其相较于传统文本生成模型在生成的结果上更具有多样性和相关性,因此,该模型在BLEU和ROUGE两个指标上均表现最好,与对比实验中效果最好的PGN模型相比,EPRec在BLEU和ROUGE-1两个指标上分别提升了25.43%和16.87%。而去除特征GRU单元的消融模型EPRec-GRU由于仅使用上下文GRU单元递归地生成解释文本,其实验结果最差,进一步证明了特征的加入对解释文本的生成效果的影响。
5.2 案例分析
本节通过具体的案例分析对EPRec的推荐模块和文本解释生成模块的具体内容进行说明。
在推荐模块中,假设为作者a3058推荐论文p299,基于注意力机制学习得到的APVP、APAP和APTP元路径的权重分别为33.0%、19.0%和48.0%(
图7 不同元路径的注意力分布
以元路径APTP为例,
图8 APTP元路径实例的注意力权重分布
模型 | 论文推荐解释文本生成示例 |
---|---|
AttSeq2Seq | We are able to design efficient neural models including tasks. |
NRT | The models including tasks. |
PGN | Our system used neural models, including social media and texts translation tasks. |
EPRec |
translation This allows us to design effective neural models over large vocabularies in computer vision and natural language processing tasks, including social media and texts translation tasks. |
总之,本文提出的论文推荐方法能够在为目标作者提供论文推荐列表之时提供推荐的文本解释,如
5.3 注意力机制分析
本文提出的EPRec模型在聚合路径实例的表示时采用了软注意力机制。本节对基于不同注意力聚合机制的推荐结果进行分析。
图9 不同注意力机制的比较
5.4 参数分析
图10 不同学习率对推荐结果的影响
6 结 语
为了缓解学术大数据中的信息过载问题,本文提出了一种融合异质图表示学习与注意力机制的可解释论文推荐方法,该方法能够在为用户提供论文推荐的同时明确告知用户推荐的缘由,在保证推荐准确度的同时有效提高了论文推荐系统的可解释性。本文的主要贡献包括:①提出了一种融合注意力机制与异质图表示学习的论文推荐模型,基于异质图对语义丰富的学术数据进行建模,利用注意力机制对异质学术图中的元路径权重及元路径实例表示进行学习。实验结果表明,本文提出的推荐方法能够有效提高推荐结果的准确度。②将文本解释生成方法引入论文推荐领域,提出了一种基于特征的文本解释生成模型。通过挖掘作者和论文共同关注的重要特征,并将其引入门控循环神经网络来辅助生成个性化的解释句子,从而有效提高论文推荐系统的可解释性,提高用户满意度。③通过将引文信息类比为评论信息,构建了一个包含多种类型节点、多种类型边及引文评论文档的数据集,结合多个评价指标和案例分析,验证了本文模型的有效性。
本文也存在一定的不足之处。在推荐模块中,本文仅考虑了给定的元路径类型,未来将继续探索如何自动挖掘包含语义更为丰富的元路径。同时,当前的论文推荐系统忽略了时间等因素,然而,学术图时刻处于动态变化中,如何在异质学术图中引入时间等动态因素也是未来研究的重点。此外,本文提出的可解释论文推荐系统能否被扩展应用到其他学术推荐领域,如合作者推荐、学术场所推荐等,这也是未来研究的重要方向。
参 考 文 献
Jannach D, Zanker M, Felfernig A, et al. Recommender systems: an introduction[M]. Cambridge: Cambridge University Press, 2010. [百度学术]
Bai X M, Wang M Y, Lee I, et al. Scientific paper recommendation: a survey[J]. IEEE Access, 2019, 7: 9324-9339. [百度学术]
Ma S T, Zhang C Z, Liu X Z. A review of citation recommendation: from textual content to enriched context[J]. Scientometrics, 2020, 122(3): 1445-1472. [百度学术]
Sugiyama K, Kan M Y. Exploiting potential citation papers in scholarly paper recommendation[C]// Proceedings of the 13th ACM/IEEE-CS Joint Conference on Digital Libraries. New York: ACM Press, 2013: 153-162. [百度学术]
杨辰, 郑若桢, 王楚涵, 等. 集成因子分解机及其在论文推荐中的应用研究[J]. 数据分析与知识发现, 2023, 7(8): 128-137. [百度学术]
Lu Y B, He Y, Cai Y X, et al. Time-aware neural collaborative filtering with multi-dimensional features on academic paper recommendation[C]// Proceedings of the 2021 IEEE 24th International Conference on Computer Supported Cooperative Work in Design. Piscataway: IEEE, 2021: 1052-1057. [百度学术]
Jeong C, Jang S, Park E, et al. A context-aware citation recommendation model with BERT and graph convolutional networks[J]. Scientometrics, 2020, 124(3): 1907-1922. [百度学术]
Shi H, Ma W, Zhang X L, et al. A hybrid paper recommendation method by using heterogeneous graph and metadata[C]// Proceedings of the 2020 International Joint Conference on Neural Networks. Piscataway: IEEE, 2020: 1-8. [百度学术]
Manju G, Abhinaya P, Hemalatha M R, et al. Cold start problem alleviation in a research paper recommendation system using the random walk approach on a heterogeneous user-paper graph[J]. International Journal of Intelligent Information Technologies, 2020, 16(2): 24-48. [百度学术]
Son J, Kim S B. Academic paper recommender system using multilevel simultaneous citation networks[J]. Decision Support Systems, 2018, 105: 24-33. [百度学术]
Dong Y X, Chawla N V, Swami A. metapath2vec: scalable representation learning for heterogeneous networks[C]// Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2017: 135-144. [百度学术]
Ma X, Zhang Y, Zeng J F. Newly published scientific papers recommendation in heterogeneous information networks[J]. Mobile Networks and Applications, 2019, 24(1): 69-79. [百度学术]
吴俊超, 刘柏嵩, 沈小烽, 等. 卷积融合文本和异质信息网络的学术论文推荐算法[J]. 计算机应用研究, 2022, 39(5): 1330-1336. [百度学术]
Ye L, Yang Y, Zeng J X. An interpretable mechanism for personalized recommendation based on cross feature[J]. Journal of Intelligent & Fuzzy Systems, 2021, 40(5): 9787-9798. [百度学术]
Zhang Y F, Chen X. Explainable recommendation: a survey and new perspectives[J]. Foundations and Trends® in Information Retrieval, 2020, 14(1): 1-101. [百度学术]
Wang N, Wang H N, Jia Y L, et al. Explainable recommendation via multi-task learning in opinionated text data[C]// Proceedings of the 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. New York: ACM Press, 2018: 165-174. [百度学术]
Sparck Jones K, Walker S, Robertson S E. A probabilistic model of information retrieval: development and comparative experiments: Part 2[J]. Information Processing & Management, 2000, 36(6): 809-840. [百度学术]
李晓敏, 王昊, 李跃艳. 基于细粒度语义实体的学术论文推荐研究[J]. 情报科学, 2022, 40(4): 156-165. [百度学术]
Liu H F, Kong X J, Bai X M, et al. Context-based collaborative filtering for citation recommendation[J]. IEEE Access, 2015, 3: 1695-1703. [百度学术]
Jiang C, Ma X, Zeng J F, et al. TAPRec: time-aware paper recommendation via the modeling of researchers’ dynamic preferences[J]. Scientometrics, 2023, 128(6): 3453-3471. [百度学术]
Chaudhuri A, Sarma M, Samanta D. SHARE: designing multiple criteria-based personalized research paper recommendation system[J]. Information Sciences, 2022, 617: 41-64. [百度学术]
Ma X, Deng Q M, Ye Y, et al. Attention based collaborator recommendation in heterogeneous academic networks[C]// Proceedings of the 2022 IEEE 25th International Conference on Computational Science and Engineering. Piscataway: IEEE, 2022: 51-58. [百度学术]
Zhang Y F, Lai G K, Zhang M, et al. Explicit factor models for explainable recommendation based on phrase-level sentiment analysis[C]// Proceedings of the 37th International ACM SIGIR Conference on Research & Development in Information Retrieval. New York: ACM Press, 2014: 83-92. [百度学术]
Li P J, Wang Z H, Ren Z C, et al. Neural rating regression with abstractive tips generation for recommendation[C]// Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press, 2017: 345-354. [百度学术]
Dong L, Huang S H, Wei F R, et al. Learning to generate product reviews from attributes[C]// Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 2017: 623-632. [百度学术]
Tao Y Y, Jia Y L, Wang N, et al. The FacT: taming latent factor models for explainability with factorization trees[C]// Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press, 2019: 295-304. [百度学术]
Tai C Y, Huang L Y, Huang C K, et al. User-centric path reasoning towards explainable recommendation[C]// Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press, 2021: 879-889. [百度学术]
Hu B B, Shi C, Zhao W X, et al. Leveraging meta-path based context for top- N recommendation with A neural co-attention model[C]// Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM Press, 2018: 1531-1540. [百度学术]
乔连鹏, 侯会文, 王国仁. 属性公平的异质信息网络上的社区搜索算法[J]. 软件学报, 2023, 34(3): 1277-1291. [百度学术]
Wang X, Wang Y, Ling Y Z. Attention-guide walk model in heterogeneous information network for multi-style recommendation explanation[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(4): 6275-6282. [百度学术]
Mou L L, Song Y P, Yan R, et al. Sequence to backward and forward sequences: a content-introducing approach to generative short-text conversation[C]// Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers. The COLING 2016 Organizing Committee, 2016: 3349-3358. [百度学术]
Zaremba W, Sutskever I, Vinyals O. Recurrent neural network regularization[OL]. (2015-02-19). http://arxiv.org/pdf/1409.2329. [百度学术]
Cho K, van Merriënboer B, Gulcehre C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation[C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2014: 1724-1734. [百度学术]
See A, Liu P J, Manning C D. Get to the point: summarization with pointer-generator networks[C]// Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 2017: 1073-1083. [百度学术]
Li L, Zhang Y F, Chen L. Generate neural template explanations for recommendation[C]// Proceedings of the 29th ACM International Conference on Information & Knowledge Management. New York: ACM Press, 2020: 755-764. [百度学术]
Lo K, Wang L L, Neumann M, et al. S2ORC: the semantic scholar open research corpus[C]// Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 2020: 4969-4983. [百度学术]
Rendle S, Freudenthaler C, Gantner Z, et al. BPR: Bayesian personalized ranking from implicit feedback[C]// Proceedings of the Twenty-Fifth Conference on Uncertainty in Artificial Intelligence. Arlington: AUAI Press, 2009: 452-461. [百度学术]
Bahdanau D, Cho K H, Bengio Y. Neural machine translation by jointly learning to align and translate[OL]. (2016-05-19). https://arxiv.org/pdf/1409.0473. [百度学术]
Papineni K, Roukos S, Ward T, et al. BLEU: a method for automatic evaluation of machine translation[C]// Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 2002: 311-318. [百度学术]