针对交通标志在某些场景中存在分辨率过低、被覆盖等环境因素影响导致在目标检测任务中出现漏检、误检的情况,提出一种基于改进注意力机制的交通标志检测算法。首先,针对交通标志因破损、光照等环境影响造成图像分辨率低从而导致网络提取图像特征信息有限的问题,在主干网络中添加注意力模块以增强目标区域的关键特征;其次,特征图中相邻通道间的局部特征由于感受野重叠而存在一定的相关性,用大小为k的一维卷积代替通道注意力模块中的全连接层,以达到聚合不同通道信息和减少额外参数量的作用;最后,在路径聚合网络(PANet)的中、小尺度特征层引入感受野模块来增大特征图的感受野以融合目标区域的上下文信息,从而提升网络对交通标志的检测能力。在中国交通标志检测数据集(CCTSDB)上的实验结果表明,所提出的YOLOv4(You Only Look Once v4)改进算法在引进极少的参数量与原算法检测速度相差不大的情况下,平均精确率均值(mAP)达96.88%,mAP提升了1.48%;而与轻量级网络YOLOv5s相比,在单张检测速度慢10 ms的情况下,所提算法mAP比YOLOv5s高3.40个百分点,检测速度达到40?frame/s,说明该算法完全满足目标检测实时性的要求。
目前大多数池化方法主要是从一阶池化层或二阶池化层提取聚合特征信息,忽略了多种池化策略对场景的综合表示能力,进而影响到场景识别性能。针对以上问题,提出了联合一二阶池化网络学习的遥感场景分类模型。首先,利用残差网络ResNet-50的卷积层提取输入图像的初始特征。接着,提出基于特征向量相似度的二阶池化方法,即通过特征向量间的相似度求出其权重系数来调制特征值的信息分布,并计算有效的二阶特征信息。同时,引入一种有效的协方差矩阵平方根逼近求解方法,以获得高阶语义信息的二阶特征表示。最后,基于交叉熵和类距离加权的组合损失函数训练整个网络,从而得到富于判别性的分类模型。所提方法在AID(50%训练比例)、NWPU-RESISC45 (20%训练比例)、CIFAR-10和CIFAR-100数据集上的分类准确率分别达到96.32%、93.38%、96.51%和83.30%,与iSQRT-COV方法相比,分别提高了1.09个百分点、0.55个百分点、1.05个百分点和1.57个百分点。实验结果表明,所提方法有效提高了遥感场景分类性能。
针对基于深度学习的遥感图像目标检测方法密集目标漏检率高、分类不准确的问题,建立了一种基于深度学习的无锚点的遥感图像任意角度的密集目标检测方法。首先采用CenterNet作为基线模型,经过主干网络提取特征,并改造原有检测器结构,即加入角度回归分支进行目标角度回归;然后提出一种基于非对称卷积的特征增强模块,并将主干网络提取到的特征图输入特征增强模块,从而增强目标的旋转不变性特征,消除由于目标的旋转、翻转带来的影响,进一步提升目标中心点、尺寸信息的回归精度。采用HourGlass-101作为主干网络时,该方法在DOTA数据集上的平均精度均值(mAP)比旋转区域候选网络(RRPN)提升了7.80个百分点,每秒处理帧数(FPS)提升了7.5;在自建数据集Ship3上,该方法的mAP比RRPN提升了8.68个百分点,FPS提升了6.5。结果表明,所提方法能获得检测精度和速度的平衡。
针对传统基于注意力机制的神经网络不能联合关注局部特征和旋转不变特征的问题,提出一种基于多分支神经网络模型的弱监督细粒度图像分类方法。首先,用轻量级类激活图(CAM)网络定位有潜在语义信息的局部区域,设计可变形卷积的残差网络ResNet-50和旋转不变编码的方向响应网络(ORN);其次,利用预训练模型分别初始化特征网络,并输入原图和以上局部区域分别对模型进行微调;最后,组合三个分支内损失和分支间损失优化整个网络,对测试集进行分类预测。所提方法在CUB-200-2011和FGVC_Aircraft数据集上的分类准确率分别达到87.7%和90.8%,与多注意力卷积神经网络(MA-CNN)方法相比,分别提高了1.2个百分点和0.9个百分点;在Aircraft_2数据集上的分类准确率达到91.8%,比ResNet-50网络提高了4.1个百分点。实验结果表明,所提方法有效提高了弱监督细粒度图像分类的准确率。
针对安防监控摄像头被树叶遮挡的问题,提出一种基于支持向量机(SVM)的视频树叶遮挡检测算法。该算法利用视频的时域特性,采用累积帧差法实现对视频中疑似树叶区域的分割,提取视频中某一帧图像的整个区域和疑似树叶区域的颜色信息与面积信息作为视频的特征,最后采用支持向量机进行建模并用于视频树叶遮挡的检测。在有限样本前提下,算法准确率能够达到84%。实验结果表明,所提算法对于有树叶遮挡的监控视频能够进行有效识别。