针对目前卫星遥感中夜光藻赤潮识别精度低、实时性差的问题,提出一种基于深度学习的无人机(UAV)影像夜光藻赤潮提取方法。首先,以UAV采集的高分辨率夜光藻赤潮RGB视频影像作为监测数据,在原有UNet++网络基础上,通过修改主干模型为VGG-16,并引入空间dropout策略,分别增强了特征提取能力并防止过拟合;然后,使用ImageNet数据集预先训练的VGG-16网络进行迁移学习,以提高网络收敛速度;最后,为评估所提方法的性能,在自建的赤潮数据集Redtide-DB上进行实验。所提方法的夜光藻赤潮提取总体精度(OA)为94.63%,F1评分为0.955 2,Kappa为0.949 6,优于K近邻(KNN)、支持向量机(SVM)和随机森林(RF)这3种机器学习方法及3种典型语义分割网络(PSPNet、 SegNet和U-Net)。在模型泛化能力测试中,所提方法对不同拍摄设备和拍摄环境的夜光藻赤潮影像表现出一定泛化能力,OA为97.41%,F1评分为0.965 9,Kappa为0.938 2。实验结果表明,所提方法可以实现夜光藻赤潮自动化、高精度的提取,可为夜光藻赤潮监测和研究工作提供参考。
针对虚拟现实(VR)大空间下为重定向行走的用户提供被动触觉时存在的虚实交互目标无法一一对应的问题,提出了一种用两个物理代理作为触觉代理为多个虚拟目标提供触觉反馈的方法,以在基于人工势场(APF)的重定向行走过程中,交替地满足用户被动触觉的需求。针对重定向行走算法本身以及标定不精确等原因造成的虚实不对齐的问题,对虚拟目标的位置及朝向进行设计并且在交互阶段引入触觉重定向。仿真实验表明对虚拟目标位置和朝向的设计可以大幅降低对齐误差;而用户实验结果证明触觉重定向的引入进一步提升了交互准确性,且能为用户带来更丰富、更具沉浸感的体验。
为应对云原生技术的日益发展与普及伴随的云上数据量的激增及该技术在性能与稳定性等方面所出现的瓶颈,提出了一种基于Haystack的存储系统。该存储系统在服务发现、自动容错与缓存方面进行了优化,更适用于云原生业务,以满足数据采集、存储与分析行业不断增长且频次较高的文件存储与读写需求。该存储系统使用对象存储模型来满足高频海量的文件存储,为使用该存储系统的业务提供简单而统一的应用程序接口,应用了文件缓存策略提升资源利用率,同时利用Kubernetes丰富的自动化工具链使该存储系统比其他存储系统更容易部署和扩展且更稳定。实验结果表明,该存储系统在读多于写的大规模碎片数据存储情境下相比目前主流的对象存储与文件系统均有一定的性能与稳定性提升。