• • 下一篇
李咨谷1,陈景强1,2*
摘要: 长文档摘要任务由于文档结构复杂、篇幅较长而面临显著挑战。现有的大多数生成式框架在训练过程中易受噪声干扰,导致无关语义信息影响有效知识的获取。为缓解这一问题,提出一种融合文档压缩与实体提示的方法,用以过滤无关内容并强化对关键信息的学习。该方法提出基于文档压缩与实体提示的端到端框架——DCEPSum (Document Compression and Entity Prompted Summarization),通过“软筛选”文档压缩与实体提示相结合,以生成连贯的摘要。首先,文档压缩模块基于句子、实体与章节节点构建异质图,并采用多头图注意力网络聚合上下文信息并输出句子重要性权重,保留高权重句子以降低噪声并增强跨句关联性。随后,为引导模型关注关键实体信息并减少噪声干扰,引入关键实体选择与实体提示机制。在生成阶段,该框架基于状态空间模型扩展的编码器结构中,将选定的实体作为前缀提示插入输入上下文,实现最终摘要生成。在两个基准数据集上的实验结果表明,DCEPSum的ROUGE-2 (Recall-Oriented Understudy for Gisting Evaluation) 分别为23.18与20.86,ROUGE-L分别为46.63与45.83;相较最强基准LSG(Local, Sparse and Global attention) (16k),ROUGE-2分别提高0.76与0.67,ROUGE-L分别提高2.31与3.14。文档压缩与实体提示的结合能够在可控计算开销下改善长文档摘要质量,为长上下文摘要建模提供可行方案。
中图分类号: