在现有的小样本目标检测中,区域提议网络(RPN)通常是在基类数据上训练以生成新类候选框;然而新类数据相较于基类更稀缺,在引入时可能产生与目标物不同的复杂背景,导致RPN将背景误认为前景,遗漏高交并比(IoU)值候选框。针对上述问题,提出一种基于改进RPN和特征聚合小样本目标检测方法(IFA-FSOD)。首先,基于RPN进行改进,即通过在RPN中设计一个基于度量的非线性分类器,计算骨干网络提取的特征和新类特征之间的相似度,以提高对新类候选框的召回率,从而筛选高IoU候选框;其次,在感兴趣区域对齐(RoI Align)中引入基于注意力机制的特征聚合模块(FAM),并通过设计不同尺度的网格,获取更全面的信息和特征表示,从而缓解因尺度不同引起的特征信息缺失。实验结果表明,相较于QA-FewDet(Query Adaptive Few-shot object Detection)方法,IFA-FSOD方法在PASCAL VOC数据集的新类上的Novel Set 3中的10-shot下的新类别平均精度(50% IoU)(nAP50)提升了4.5个百分点;相较于FsDetView(Few-shot object Detection and Viewpoint estimation)方法,在10-shot和30-shot设置下,IFA-FSOD方法在COCO数据集的新类上的平均精度均值(mAP)分别提升了0.2和0.8个百分点。可见改进RPN和特征聚合(IFA)能有效提高在小样本情况下对目标类别的检测性能,并解决高IoU值候选框遗漏和特征信息捕捉不全的问题。
针对图像混合失真类型判定难的问题,在深度学习多标签分类思想的基础上,提出了一种基于多尺度多分类器卷积神经网络(CNN)的混合失真类型判定方法。首先,从图像中截取得到含有高频信息的图像块,将该图像块输入到不同感受野的卷积层中以提取图像的浅层特征图;其次,将浅层特征图输入到各子分类器结构中以进行深层次的特征提取和融合,将融合的特征通过Sigmoid分类器得到判定结果;最后,将各子分类器的判定结果进行融合得到图像的混合失真类型。实验结果表明,在自然场景混合失真数据库(NSMDID)上,所提方法对图像中存在的混合失真类型的平均判定准确率可以达到91.4%,且对大部分类型的判定准确率都在96.8%以上,可见所提方法能够对混合失真图像中的失真类型进行有效的判定。