• • 下一篇
叶青,杨涛,张永梅
YE Qing, YANG Tao, ZHANG Yongmei
摘要: 针对当前人物交互检测方法中存在的特征表达与利用不充分,以及对训练样本稀少的交互实例感知与判别能力较弱的问题,提出一种基于类解耦特征增强的人物交互检测方法。针对特征表达不充分的问题,提出了一种聚焦扩散特征增强网络(FDFENet),该网络对提取到的中层和高层特征进行自适应增强,以提高特征在模型当中的表达能力。针对难分类的交互类别的检测准确率较低的问题,提出了基于类解耦的特征增强算法(FEACD)。该算法首先利用视觉-语义融合模块充分融合视觉特征和语义特征,将融合后的视觉特征和语义特征经过解耦后得到人体、物体和动作三类特征,并根据对应的视觉和语义特征计算两者之间的相似度。根据得到的相似度分别设计3个类别的损失函数,在训练过程中给每个类别增加反馈。此外,在损失函数中增加了焦点损失,焦点损失有助于模型更关注难分类的样本,降低对易分类样本的关注和增强程度。实验结果表明,所提方法在标准人物交互检测数据集V-COCO的Scenario1场景下的平均均值精度(mAP)、在HICO-DET数据集Default配置下的Full指标下的mAP都取得了最优结果,验证了方法的有效性。
中图分类号: