• • 下一篇
张江峰1,2,闫涛1,2,3,5,陈斌4,5,钱宇华2,3,宋艳涛1,2,3
摘要: 多景深三维形貌重建的关键在于精确捕获图像帧之间聚焦离焦的传递信息与单帧图像的聚焦区域变化。针对现有模型无法有效融合全局时空信息的问题,提出全局时空特征耦合(GSTFC)模型提取多景深图像序列的局部与全局的时空特征信息,并设计深度聚焦体积模块(DFV)保留聚焦和离焦的过渡信息。首先,在收缩路径中穿插3D-ConvNeXt模块和3D下采样卷积层,以捕捉多尺度局部时空特征;同时,在瓶颈模块中添加3D-SwinTransformer模块,以捕捉多景深图像序列局部时序特征的全局关联关系;然后,通过自适应参数层将局部时空特征和全局关联关系融合为全局时空特征,并输入扩张路径引导生成深度聚焦体积;最后,深度聚焦体积通过深度注意力提取序列权重信息,保留聚焦与离焦的过渡信息,得到最终深度图。通过实验验证所提模型的有效性,结果表明,相较于最先进的全聚焦深度网络模型(AiFDepthNet),所提模型在FoD500数据集的均方根误差(RMSE)指标下降了12.5%,并且相较于传统的鲁棒聚焦体积正则化的聚焦形貌恢复模型(RFVR-SFF),所提模型可以保留更多的景深过渡关系。
中图分类号: