基于LLM-BERT 协同框架的长文本关系识别
武帅1 , 何琳1,2,3 , 吕星月1 , 陆滢洁1 , 吴灿1 , 王欣哲1
1.南京农业大学信息管理学院,南京 211800 2.南京农业大学国家智能社会治理实验基地,南京 211800 3.南京农业大学图书馆,南京 211800
Long-Text Relation Recognition Based on LLM-BERT Collaborative Framework
Wu Shuai1 , He Lin1,2,3 , Lyu Xingyue1 , Lu Yingjie1 , Wu Can1 , Wang Xinzhe1
1.College of Information Management, Nanjing Agricultural University, Nanjing 211800 2.National Experimental Base for Intelligent Social Governance, Nanjing Agricultural University, Nanjing 211800 3.Library of Nanjing Agricultural University, Nanjing 211800
摘要 长文本关系识别在科技情报与数字人文领域中具有重要作用,是实现知识重组向知识发现转变的关键。然而,由于长文本存在上下文跨度大、语义线索分散、实体指代复杂等特征,传统大语言模型(large language model,LLM)在处理该类文本时,易出现上下文理解不足、语义偏移以及幻觉等问题,使得长文本在科技情报与人文计算等领域的实际应用中尚未更好地实现内容增值。为了解决上述问题,首先,本文依据关系触发词的聚类结果构建实体关系体系;其次,针对长文本特征,设计基于LLM-BERT(large language model - bidirectional encoder representations from transformers)协同框架的长文本关系识别算法,提升语义关联性;再其次,融合预训练模型、深度学习网络、注意力机制处理文本特征的优势,构建BERT-CNN-BiLSTM-MHA(BCBM)模型,深层次挖掘文本语义;最后,结合模型置信度和文本相似度,设计一种摘要质量评估机制,以缓解LLM幻觉。研究结果表明,该算法实测效果优于传统模型,能在一定程度上缓解LLM在处理长文本时易产生的上下文理解不足、语义偏移和幻觉等问题。
关键词 :
多策略协同 ,
大语言模型 ,
长文本语义挖掘 ,
检索增强生成 ,
关系识别
收稿日期: 2025-06-04
基金资助: 国家社会科学基金重点项目“雨花英烈文献知识组织及智能内容生成研究”(23ATQ012);南京农业大学中央高校基本科研业务费项目“新技术视角下的雨花英烈革命文献挖掘研究”(SKCX2023007)。
作者简介 : 武帅,1994年生,博士研究生,研究方向为数字人文、自然语言处理;何琳,通信作者,1980年生,博士,教授,博士生导师,研究方向为数字人文、计算人文,E-mail:helin@njau.edu.cn;吕星月,1997年生,博士研究生,研究方向为数字人文、知识服务;陆滢洁,2001年生,硕士研究生,研究方向为知识组织、人文计算;吴灿,1999年生,硕士研究生,研究方向为知识组织、数字人文;王欣哲,2000年生,硕士研究生,研究方向为数字人文、知识图谱;
引用本文:
武帅, 何琳, 吕星月, 陆滢洁, 吴灿, 王欣哲. 基于LLM-BERT 协同框架的长文本关系识别[J]. 情报学报, 2026, 45(2): 303-318.
Wu Shuai, He Lin, Lyu Xingyue, Lu Yingjie, Wu Can, Wang Xinzhe. Long-Text Relation Recognition Based on LLM-BERT Collaborative Framework. 情报学报, 2026, 45(2): 303-318.
链接本文:
https://qbxb.istic.ac.cn/CN/10.3772/j.issn.1000-0135.2026.02.010 或 https://qbxb.istic.ac.cn/CN/Y2026/V45/I2/303
1 王超, 许海云, 齐砚翠, 等. 知识网络视角下科学、技术、产业间创新驱动关系识别方法研究[J]. 情报学报, 2024, 43(1): 10-24. 2 李月琳, 潘正源, 范斯诺, 等. 赋能新质生产力的情报学与情报工作: 2024年中国情报学年会综述[J]. 情报学报, 2025, 44(3): 369-380. 3 纪其顺, 王瑞琴, 黄熠旻, 等. 基于改进Transformer模型的超长序列处理方法[J]. 中文信息学报, 2025, 39(9): 32-42. 4 王人玉, 项威, 王邦, 等. 文档级事件抽取研究综述[J]. 中文信息学报, 2023, 37(6): 1-14. 5 刘晓明, 张兆晗, 杨晨阳, 等. 在线社交网络文本内容对抗技术[J]. 计算机学报, 2022, 45(8): 1571-1597. 6 Li Q, Li J X, Sheng J W, et al. A survey on deep learning event extraction: approaches and applications[J]. IEEE Transactions on Neural Networks and Learning Systems, 2024, 35(5): 6301-6321. 7 武剑涛, 李俊达, 李佰文, 等. 面向新闻的长文本事件抽取方法[J]. 网络安全与数据治理, 2025, 44(5): 21-28. 8 曹碧薇, 曹玖新, 桂杰, 等. 面向中文文学作品的长文本人物关系抽取[J]. 中文信息学报, 2023, 37(5): 88-100. 9 楼雯, 赵星. 要素化大模型增强的科技成果评价理念前瞻[J]. 中国图书馆学报, 2025, 51(4): 50-65. 10 罗文, 王厚峰. 大语言模型评测综述[J]. 中文信息学报, 2024, 38(1): 1-23. 11 郑江龙, 陈锦秀. 基于混合树结构神经网络的隐式篇章关系识别[J]. 厦门大学学报(自然科学版), 2017, 56(4): 576-583. 12 罗计根, 杜建强, 聂斌, 等. 基于双向LSTM和GBDT的中医文本关系抽取模型[J]. 计算机应用研究, 2019, 36(12): 3744-3747. 13 谭咏梅, 刘姝雯, 吕学强. 基于CNN与双向LSTM的中文文本蕴含识别方法[J]. 中文信息学报, 2018, 32(7): 11-19. 14 Zhou W X, Huang K, Ma T Y, et al. Document-level relation extraction with adaptive thresholding and localized context pooling[C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. Palo Alto: AAAI Press, 2021: 14612-14620. 15 邓成汝, 凌捷. 融合预训练模型与神经网络的实体关系抽取[J]. 计算机工程与设计, 2023, 44(7): 2023-2029. 16 Sun Y, Wang S H, Li Y K, et al. ERNIE 2.0: a continual pre-training framework for language understanding[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto: AAAI Press, 2020: 8968-8975. 17 Zhuang H L, Qin Z, Jagerman R, et al. RankT5: fine-tuning T5 for text ranking with ranking losses[C]// Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press, 2023: 2308-2313. 18 Floridi L, Chiriatti M. GPT-3: its nature, scope, limits, and consequences[J]. Minds and Machines, 2020, 30(4): 681-694. 19 Lewis M, Liu Y H, Goyal N, et al. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[C]// Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 2020: 7871-7880. 20 文玉锋, 林伟杰, 夏翠娟, 等. 面向古籍文献智能处理的大语言模型效能测评[J]. 图书馆论坛, 2025, 45(8): 52-60. 21 赵志枭, 胡蝶, 刘畅, 等. 人文社科领域中文通用大模型性能评测[J]. 图书情报工作, 2024, 68(13): 132-143. 22 胡忠义, 税典程, 吴江. 基于大模型微调的生成式文献层次分类标引[J]. 情报学报, 2025, 44(4): 425-437. 23 潘磊, 袁鸿霄, 钟准, 等. 基于大模型构建图网络的事件因果关系识别[J/OL]. 西南交通大学学报, (2025-04-08) [2025-05-20]. https://link.cnki.net/urlid/51.1277.u.20250408.1541.004. 24 张强, 高颖, 任豆豆, 等. 融合DeepSeek-R1和RAG技术的先秦文化元典智能问答研究[J]. 现代情报, 2026, 46(1): 173-186. 25 汪禹, 吴彬. 情感分析视角下中文政策文本的倾向词典构建研究[J]. 情报资料工作, 2025, 46(5): 102-112. 26 杨伯峻. 春秋左传注·一[M]. 北京: 中华书局, 1990. 27 曹荣. 雨花台烈士传丛书·项英传[M]. 南京: 江苏人民出版社, 2016. 28 武帅, 何琳, 杨海龄, 等. 迁移学习视角下红色文献元数据表示体系构建探究[J]. 情报资料工作, 2024, 45(6): 84-92. 29 胡卓然. 雨花台烈士传丛书·陈子涛传[M]. 南京: 江苏人民出版社, 2021. 30 武帅, 何琳, 杨秀璋, 等. 基于BERT-RL的红色文献元数据标注研究[J]. 大学图书馆学报, 2025, 43(4): 76-89. 31 董恒峰. 雨花台烈士传丛书·袁国平传[M]. 南京: 江苏人民出版社, 2016. 32 本书编写组. 雨花台烈士传丛书·蒋云传[M]. 南京: 江苏人民出版社, 2017.
[1]
张卫, 王东波, 刘浏. 基于大语言模型的成语隐喻式构词方法及其应用:知识重组、回溯与发现 [J]. 情报学报, 2025, 44(9): 1083-1098.
[2]
张琳, 李思佳, 施顺顺, 苟震宇, 黄颖. 大模型驱动的科技论文新颖性测度探索 [J]. 情报学报, 2025, 44(9): 1099-1113.
[3]
赵雪, 张海, 王东波. 大语言模型评测研究现状、应用、问题与趋势分析 [J]. 情报学报, 2025, 44(8): 1058-1074.
[4]
马永强, 刘家伟, 高影繁. 面向可溯源文本生成的科技文献伪反馈训练数据合成研究 [J]. 情报学报, 2025, 44(7): 830-845.
[5]
朱珈慧, 周潇, 王博, 任乔杨, 王丹. 面向解决“卡脖子”技术困境的关键专利识别研究 [J]. 情报学报, 2025, 44(6): 720-735.
[6]
胡忠义, 税典程, 吴江. 基于大模型微调的生成式文献层次分类标引 [J]. 情报学报, 2025, 44(4): 425-437.
[7]
刘畅, 张琪, 王东波, 沈思, 吴梦成, 刘浏, 苏雨诗. 基于大语言模型技术的古籍限定域关系抽取及应用研究 [J]. 情报学报, 2025, 44(2): 200-219.
[8]
胡广伟, 贺荒兰. 政务服务智能化演进:用户行为数据的视角 [J]. 情报学报, 2025, 44(11): 1458-1469.
[9]
滕婕, 贺荒兰, 胡广伟. 大语言模型驱动的网络问政文本细粒度情感分析:一种多阶段优化方法 [J]. 情报学报, 2025, 44(10): 1242-1258.
[10]
霍朝光, 尹卓, 杨媛, 杨万诚, 茹润钰, 霍帆帆. 基于大模型的政策反讽评论自动识别方法研究 [J]. 情报学报, 2024, 43(12): 1414-1424.