现有链接消失问题研究工作一部分只停留在发现和分析链接消失的原因上,一部分仅使用静态网络表示进行预测,很少从网络动态演化的角度分析链接消失预测问题。针对以上研究现状,提出一种预训练动态图神经网络学术合作行为消失预测模型PreDGN(Pre-trained Dynamic Graph neural Network)。PreDGN首先通过动态图生成预训练任务捕捉动态网络的时间信息,同时利用时序模体构造的边特征补充网络的拓扑信息;其次,结合基于时间编码的注意力节点嵌入,能够更精准地学习节点的表征。经过预训练的模型学习了动态图的历史信息,而且可以在特定的学术合作行为消失预测任务中进行微调。使用公开学术合作数据集HepTh中不同时间跨度、不同数据规模数据进行实验的结果表明,在1996、1997、94—96和97—99子数据集上,相较于次优的动态图神经网络方法(DyRep),所提模型的曲线下面积(AUC)指标分别提高了10.47、8.16、13.41和3.27个百分点,平均精度(AP)指标分别提高了5.87、2.15、8.26和3.01个百分点。
学术社交网络中的某些学者可能组成异常引用群体,相互之间过度引用彼此的文章以谋取利益。现有的异常群体检测算法大多将社区检测与节点表示学习分离,导致最终异常群体检测性能受限。为此,提出一种基于局部扩展社区发现的异常引用群体检测(GADL)算法。所提算法利用论文研究领域、标题内容等语义信息提取作者异常引用特征;定义基于节点转移相似度、节点社区隶属度、引用异常度和广度优先遍历(BFS)深度的扩展度量函数;结合异常社区发现和异常节点检测,在统一框架下对二者联合优化,可获得最优的异常检测性能。在ACM、DBLP1和DBLP2数据集上,相较于ALP算法,所提算法分别提高了6.07%、5.35%和3.38%。在真实数据集上的实验结果表明,所提算法可有效地检测异常学术引用。
互联网上的攻击性言论严重扰乱了正常网络秩序,破坏了健康交流的网络环境。现有的检测技术更关注文本中的鲜明特征,难以发现更隐晦的攻击方式。针对上述问题,提出融合反讽机制的攻击性言论检测模型BSWD(Bidirectional Encoder Representation from Transformers-based Sarcasm and Word Detection)。首先,提出基于反讽机制的模型Sarcasm-BERT,以检测言论中的语义冲突;其次,提出细粒度词汇攻击性特征提取模型WordsDetect,检测言论中的攻击性词汇;最后,融合两种模型得到BSWD。实验结果表明,与BERT(Bidirectional Encoder Representation from Transformers)、HateBERT模型相比,所提模型的准确率、精确率、召回率和F1分数指标大部分能提升2%,显著提高了检测性能,更能发现隐含的攻击性言论;同时,与SKS(Sentiment Knowledge Sharing)、BiCHAT(Bidirectional long short-term memory with deep Convolution neural network and Hierarchical ATtention)模型相比,具有更强的泛化能力和鲁棒性。以上结果验证了BSWD检测隐晦攻击性言论的有效性。
针对现有对齐多模态语言序列情感分析方法常用的单词对齐方法缺乏可解释性的问题,提出了一种用于未对齐多模态语言序列情感分析的多交互感知网络(MultiDAN)。MultiDAN的核心是多层的、多角度的交互信息提取。首先使用循环神经网络(RNN)和注意力机制捕捉模态内的交互信息;然后,使用图注意力网络(GAT)一次性提取模态内及模态间的、长短期的交互信息;最后,使用特殊的图读出方法,再次提取图中节点的模态内及模态间交互信息,得到多模态语言序列的唯一表征,并应用多层感知机(MLP)分类获得序列的情感分数。在两个常用公开数据集CMU-MOSI和CMU-MOSEI上的实验结果表明,MultiDAN能充分提取交互信息,在未对齐的两个数据集上MultiDAN的F1值比对比方法中最优的模态时空注意图(MTAG)分别提高了0.49个和0.72个百分点,具有较高的稳定性。MultiDAN可以提高多模态语言序列的情感分析性能,且图神经网络(GNN)能有效提取模态内、模态间的交互信息。