在时序知识图谱问答(TKGQA)任务中,针对模型难以捕获并利用问句中隐含的时间信息增强模型的复杂问题推理能力的问题,提出一种融合图注意力的时序知识图谱推理问答(GACTR)模型。所提模型采用四元组形式的时序知识库(KB)进行预训练,同时引入图注意力网络(GAT)以有效捕获问句中隐式时间信息;通过与RoBERTa(Robustly optimized Bidirectional Encoder Representations from Transformers pretraining approach)模型训练的关系表示进行集成,进一步增强问句的时序关系表示;将该表示与预训练的时序知识图谱(TKG)嵌入相结合,以获得最高评分的实体或时间戳作为答案预测结果。在最大的基准数据集CRONQUESTIONS上的实验结果显示,GACTR模型在时序推理模式下能更好地捕获隐含时间信息,有效提升模型的复杂推理能力。与基线模型CRONKGQA(Knowledge Graph Question Answering on CRONQUESTIONS)相比,GACTR模型在处理复杂问题类型和时间答案类型上的Hits@1结果分别提升了34.6、13.2个百分点;与TempoQR(Temporal Question Reasoning)模型相比,分别提升了8.3、2.8个百分点。
大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参数和数据支持,展现出更强的语言理解与生成能力,广泛应用于机器翻译、问答系统、对话生成等众多任务中并表现卓越。现有的综述大多侧重于LLM的理论架构与训练方法,对LLM的产业级应用实践及技术生态演进的系统性探讨仍显不足。因此,在介绍LLM的基础架构、训练技术及发展历程的基础上,分析当前通用的LLM关键技术和以LLM为底座的先进融合技术。通过归纳总结现有研究,进一步阐述LLM在实际应用中面临的挑战,包括数据偏差、模型幻觉和计算资源消耗等问题,并对LLM的持续发展趋势进行展望。
知识图谱(KG)可从海量数据中提取并结构化表示先验知识,在智能系统的构建与应用中发挥着关键作用。知识图谱补全(KGC)旨在预测KG中缺失的三元组以提升完整性和可用性,通常涵盖编码环节与预测环节。然而,传统的KGC方法在编码环节存在难以有效利用额外信息与语义信息的问题,而在预测环节存在知识覆盖不完全及封闭世界问题,且先编码后预测的框架会受到嵌入表示形式和计算效率的限制。大语言模型(LLM)凭借丰富的知识和强大的理解力能够解决这些问题。因此,对面向知识图谱补全的大模型方法进行综述。首先,概述KG与LLM的基本概念及研究现状,并阐述KGC的流程;其次,将现有基于LLM的KGC方法从将LLM作为编码器、将LLM作为生成器以及基于提示引导三方面进行总结和梳理;最后,总结模型在不同数据集上的性能表现并探讨基于LLM的KGC研究面临的问题与挑战。
针对现有大语言模型(LLM)在跨领域知识处理、实时学术信息更新及输出质量保证方面的局限,提出基于学术社交网络(ASN)的学者LLM——ScholatGPT。ScholatGPT结合知识图谱增强生成(KGAG)与检索增强生成(RAG),以提升精准语义检索与动态知识更新的能力,并通过微调优化以强化学术文本的生成质量。首先,基于学者网(SCHOLAT)关系数据构建学者知识图谱,并利用LLM进行语义增强;其次,提出KGAG检索模型,结合RAG实现多路混合检索,增强LLM的精准检索能力;最后,利用微调技术优化模型,使它在各学术领域的生成质量得到提升。实验结果表明,ScholatGPT在学术问答任务中的精确率达83.2%,相较于GPT-4o和AMiner AI提升了69.4和11.5个百分点,在学者画像、代表作识别和研究领域分类等任务上均表现优异。在回答相关性、连贯性和可读性方面,ScholatGPT取得了稳定且具有竞争力的表现,在专业性与可读性之间实现了较好的平衡。此外,基于ScholatGPT开发的学者智库和学术信息推荐系统等智能应用有效提升了学术信息获取的效率。
供应链在发展过程中面临许多挑战,包括如何保证产品溯源过程中信息的真实可靠性以及溯源系统的安全性、物流运输过程中产品的安全性,以及中小企业融资过程中的信任管理等。区块链的去中心化、不可篡改、可追溯性等特点为供应链管理提供了高效的解决办法,但在实际实施过程中存在一些技术挑战。为研究区块链技术在供应链中的应用,对一些典型的应用进行讨论与分析。首先简要介绍了供应链的概念及目前面临的挑战;其次阐述了区块链在信息流、物流以及资金流这三个供应链领域中面临的问题,并对相关解决方案作了对比分析;最后对区块链在供应链实际应用中面临的技术挑战加以总结,对未来的应用进行展望。
在医学图像分割网络中,卷积神经网络(CNN)虽然能提取丰富的局部特征细节,但存在远程信息捕获不足的问题。Transformer虽然可以捕捉长距离的全局特征依赖关系,但是会破坏局部特征细节。为充分利用2种网络特征的互补性,提出一种用于医学图像分割的CNN和Transformer并行的融合网络——PFNet。该网络的并行融合模块使用一对基于CNN和Transformer的相互依赖的并行分支来高效地学习局部和全局两方面的辨别特征,并以交互方式交叉融合局部特征和长距离特征的依赖关系;同时,为恢复在下采样期间丢失的空间信息以增强细节的保留,提出多尺度交互(MSI)模块提取分层CNN分支生成的多尺度特征的局部上下文以进行远程依赖关系建模。实验结果表明,PFNet优于MISSFormer(Medical Image Segmentation tranSFormer)和UCTransNet(U-Net with Channel Transformer module)等先进方法。在Synapse和ACDC(Automated Cardiac Diagnosis Challenge)数据集上,相较于最优的基线方法MISSFormer,PFNet的平均Dice相似系数(DSC)分别提高1.27%和0.81%。可见,PFNet能实现更精准的医学图像分割。
视觉目标跟踪是计算机视觉中的重要任务之一,为实现高性能的目标跟踪,近年来提出了大量的目标跟踪方法,其中基于Transformer的目标跟踪方法由于具有全局建模和联系上下文的能力,是目前视觉目标跟踪领域研究的热点。首先,根据网络结构的不同对基于Transformer的视觉目标跟踪方法进行分类,概述相关原理和模型改进的关键技术,总结不同网络结构的优缺点;其次,对这类方法在公开数据集上的实验结果进行对比,分析网络结构对性能的影响,其中MixViT-L(ConvMAE)在LaSOT和TrackingNet上跟踪成功率分别达到了73.3%和86.1%,说明基于纯Transformer两段式架构的目标跟踪方法具有更优的性能和更广的发展前景;最后,对方法当前存在的网络结构复杂、参数量大、训练要求高和边缘设备使用难度大等不足进行总结,并对今后的研究重点进行展望,通过与模型压缩、自监督学习以及Transformer可解释性分析相结合,可为基于Transformer的视觉目标跟踪提出更多可行的解决方案。
针对大语言模型(LLM)输出内容存在偏见而导致LLM不安全和不可控的问题,从偏见识别、偏见评估和偏见去除3个角度出发深入梳理和分析现有LLM偏见的研究现状、技术与局限。首先,概述LLM的三大关键技术,从中分析LLM不可避免存在内隐偏见(Intrinsic Bias)的根本原因;其次,总结现有LLM存在的语言偏见、人口偏见和评估偏见三类偏见类型,并分析这些偏见的特点和原因;再次,系统性回顾现有LLM偏见的评估基准,并探讨这些通用型评估基准、特定语言评估基准以及特定任务评估基准的优点及局限;最后,从模型去偏和数据去偏2个角度出发深入分析现有LLM去偏技术,并指出它们的改进方向,同时,分析指出LLM偏见研究的3个方向:偏见的多文化属性评估、轻量级的偏见去除技术以及偏见可解释性的增强。
知识追踪(KT)是一种认知诊断方法,旨在通过学习者的历史答题记录,模拟学习者对于学习知识的掌握程度,最终预测学习者未来的答题情况。目前基于深度神经网络模型的知识追踪技术以强大的特征提取能力和优越的预测能力成为知识追踪领域研究的热点;然而,基于深度学习的知识追踪模型通常缺乏较好的可解释性。清晰的可解释性不仅可以让学习者和教师充分理解知识追踪模型的推理过程和预测结果,从而为下一步学习制定符合当前知识状态的学习计划,还能够提升学习者和教师对知识追踪模型的信任程度。因此,对可解释的深度知识追踪(DKT)方法进行综述。首先,介绍知识追踪的发展历程,并介绍可解释性的定义和必要性;其次,从特征提取和模型内部提升两方面,对解决DKT模型缺乏可解释性而提出的改进方法进行总结和梳理;再次,介绍现有的可供研究者使用的相关公开数据集,并分析数据集内的数据特征对可解释性的影响,从而探讨如何从模型性能和可解释性两个方面对知识追踪模型进行评价,并整理DKT模型在不同数据集上的性能表现;最后,对DKT模型目前存在的问题提出一些未来可能的研究方向。
现有机器学习方法在面对零日攻击检测时,存在对样本数据过度依赖以及对异常数据不敏感的问题,从而导致入侵检测系统(IDS)难以有效防御零日攻击。因此,提出一种基于Transformer和自适应模糊神经网络推理系统(ANFIS)的混合车联网入侵检测系统。首先,设计了一种数据增强算法,通过先去除噪声再生成的方法解决了数据样本不平衡的问题;其次,将非线性特征交互引入复杂的特征组合,设计了一个特征工程模块;最后,将Transformer的自注意力机制和ANFIS的自适应学习方法相结合,以提高特征表征能力,减少对样本数据的依赖。在CICIDS-2017和UNSW-NB15入侵数据集上将所提系统与Dual-IDS等先进(SOTA)算法进行比较。实验结果表明,对于零日攻击,所提系统在CICIDS-2017入侵数据集上实现了98.64%的检测精确率和98.31%的F1值,在UNSW-NB15入侵数据集上实现了93.07%的检测精确率和92.43%的F1值,验证了所提算法在零日攻击检测方面的高准确性和强泛化能力。
群智能算法的优化是提升群智能算法性能的一个主要途径,随着群智能算法越来越广泛地运用到各类模型优化、生产调度、路径规划等问题中,对智能算法性能的要求也越来越高。亚群策略作为一种优化群智能算法的重要手段,能够灵活地平衡算法的全局勘探能力和局部开发能力,已经成为群智能算法的研究热点之一。为了促进亚群优化策略的发展和应用,对动态亚群策略、基于主从范式的亚群策略和基于网络结构的亚群策略进行了详细调查,阐述了各类亚群策略的结构特点、改进方式和应用场景。最后,总结了亚群策略目前存在的问题以及未来的研究趋势和发展方向。
分层联邦学习中隐私安全与资源消耗等问题的存在降低了参与者的积极性。为鼓励足够多的参与者积极参与学习任务,并针对多移动设备与多边缘服务器之间的决策问题,提出基于多领导者Stackelberg博弈的激励机制。首先,通过量化移动设备的成本效用与边缘服务器的支付报酬,构建效用函数并定义最优化问题;其次,将移动设备之间的交互建模为演化博弈,将边缘服务器之间的交互建模为非合作博弈。为求解最优边缘服务器选择和定价策略,提出多轮迭代边缘服务器选择算法(MIES)和梯度迭代定价算法(GIPA),前者用于求解移动设备之间的演化博弈均衡解,后者用于求解边缘服务器之间的定价竞争问题。实验结果表明,所提算法GIPA与最优定价预测策略(OPPS)、历史最优定价策略(HOPS)和随机定价策略(RPS)相比,可使边缘服务器的平均效用分别提高4.06%、10.08%和31.39%。
智慧家庭领域的发展依赖于构建丰富的时空知识图谱支撑下游任务的设计与执行。然而,构建智慧家庭空间的时空知识图谱面临数据源多样、数据质量低以及规模有限等挑战。因此,提出一种融合说明文档相对位置信息与用户行为日志的双模态知识提取框架来充分挖掘设备说明文档和用户行为日志中的多模态信息,从而高效地实现知识提取与图谱构建。该框架包括两部分:首先,提出一个基于相对位置布局匹配(RPLM)的方法,以利用说明文档的相对位置特性来对设备说明文档中的图像和文本进行关联匹配,同时设计说明文档的本体模型,并与大语言模型(LLM)融合,提取结构化信息并构建说明文档知识图谱;其次,设计功能关联分析(FCA)算法和设备使用行为处理(DUBP)算法,从用户行为日志中提取功能关联的设备信息并构建家庭空间的时空知识图谱。选取LayoutLMv3、ERNIE-Layout和GeoLayoutLM等作为基准模型,并在一个自建中文说明文档布局分析(CMDLA)数据集和合成的用户行为日志数据集以及3个公开文档分析数据集上进行验证。结果表明,所提框架在家庭领域数据集上的知识提取准确性和效率上优于基线方法,准确率达到96.39%,比次优方法GeoLayoutLM提高了0.97个百分点,在异构数据融合与时空建模任务中表现出显著优势。
针对多变量时序预测难以充分利用序列上下文语义信息及变量间隐含关联信息的问题,提出一种基于解耦注意力机制的多变量时序预测模型Decformer。首先,提出一种解耦注意力机制,从而充分利用嵌入的语义信息提升注意力权值分配的准确度;其次,提出一种不依赖于显式变量关系的模式关联挖掘方法,以挖掘并利用变量间隐含的模式关联信息。在话务量、电力消耗和交通3种不同类型的真实数据集(TTV、ECL和PeMS-Bay)上,与长短期时间序列网络(LSTNet)、Transformer、FEDformer等优秀的开源多变量时序预测模型相比,Decformer在所有预测时间长度上都取得了最高的预测精度。相较于LSTNet,Decformer在TTV、ECL和PeMS-Bay数据集上的平均绝对误差(MAE)分别降低了17.73%~27.32%、10.89%~17.01%和13.03%~19.64%;均方误差(MSE)分别降低了23.53%~58.96%、16.36%~23.56%和15.91%~26.30%。实验结果表明,Decformer能够有效提升多变量时序预测的精度。
现有的检索增强生成(RAG)问答系统在特定领域应用时,存在检索路径单一、用户潜在意图覆盖不足和召回文段质量低导致的系统回答准确性低与不全面的问题。因此,提出一种双阶段优化方法——预回答与召回过滤(PARF)。首先,通过结合领域知识图谱与提示工程技术,引导大语言模型(LLM)生成预回答,构建“原始查询→预回答→相关文段”的多向检索路径,从而扩展原始查询的语义空间;其次,利用BERT(Bidirectional Encoder Representations from Transformers)模型对召回文段进行相关性评分与过滤,实现检索与生成阶段的协同优化,提升有效信息的密度。实验结果表明,相较于基线方法DPR-LLM(Dense Passage Retrieval with LLM)构建的RAG问答系统,PARF方法构建的RAG问答系统的一致性指标F1和ROUGE-L(Recall-Oriented Understudy for Gisting Evaluation-L)在轨道交通问答数据集上分别提升19.8和41.5个百分点,在医药问答数据集上分别提升16.1和17.6个百分点,效果指标正确率分别提升10.2和8.8个百分点。
在多智能体系统中,协作任务往往动态变化,且存在多个冲突的优化目标,因此动态多目标多智能体协同调度问题已经成为亟须解决的关键问题之一。针对动态环境下多智能体协同调度需求,提出了概率驱动的动态预测策略,旨在有效利用历史环境概率分布,预测决策解在新环境的概率分布,从而生成新的多智能体调度方案,实现调度算法在动态环境下的快速响应。具体来讲,设计了基于元素的概率分布表达,以表示解的构成元素在动态环境的适应性,并根据优化算法迭代最优解逐步更新概率分布以趋近实际分布;构建了基于融合的概率分布预测机制,考虑到环境变化的连续性和相关性,当环境变化时,通过融合历史概率分布预测新环境的概率分布,为新环境优化提供先验知识;提出了基于启发式的新解采样机制,结合概率分布和启发式信息,生成解方案以更新过时种群。将概率驱动的动态预测策略嵌入新型的多目标进化算法,获得概率驱动的动态多目标进化算法。在10个动态多目标多智能体协同调度问题实例上,实验结果表明,所提算法在解最优性和多样性上显著优于已有多目标进化算法,所提的概率驱动的动态预测策略能够提高多目标进化算法对动态环境的适应能力。
在协同融合气象、空间和时间三大信息的时空混合模型中,时间变化建模通常在一维空间中完成。针对一维序列局限于滑动窗口和缺乏对多尺度特征的灵活提取的问题,提出一种多域时空层次图神经网络(MST-HGNN)模型。首先,构建城市全局尺度和站点局部尺度的两级层次图,从而进行空间关系学习;其次,将一维空气质量序列转换为一组基于多个周期的二维张量,并在二维空间上通过多尺度卷积进行周期解耦以捕获频域特征;同时,在一维空间中利用长短期记忆(LSTM)网络拟合时域特征;最后,为避免聚合冗余信息,设计一种门控机制融合模块用于频域和时域特征的多域特征融合。在Urban-Air数据集和长三角城市群数据集上的实验结果表明,相较于多视图多任务时空图卷积网络模型(M2),所提模型在预测第1 h、3 h、6 h、12 h空气质量的平均绝对误差(MAE)和均方根误差(RMSE)均低于对比模型。可见,MST-HGNN能在频域上解耦复杂时间模式,利用频域信息弥补时域特征建模的局限性,并结合时域信息更全面地预测空气质量变化。
网络流量异常检测是利用各种检测技术分析判断网络流量,发现网络中潜在的攻击,是一种有效的网络安全防护方法。针对高维海量数据和不同攻击类别的网络流量数据不均衡而导致检测准确率低、误报率高的问题,提出一种融合一维卷积神经网络(1D-CNN)和双向门控循环单元(BiGRU)的类不平衡流量异常检测模型。首先,针对类不平衡数据,通过使用改进的合成少数类过采样技术(SMOTE)即Borderline-SMOTE和基于高斯混合模型(GMM)的欠采样聚类技术进行平衡处理;然后,使用1D-CNN提取数据的局部特征,并利用BiGRU更好地提取数据中的时序特征;最后,在UNSW-NB15数据集对所提模型进行验证,所提模型的准确率为98.12%,误报率为1.28%。结果表明,所提模型提高了对少数攻击的识别率,检测精度高于其他经典机器学习和深度学习模型。
在物联网(IoT)时代,人工智能(AI)与IoT的结合已经成为推动技术发展和应用创新的重要趋势。随着设备连接数量的指数级增长,提升终端用户对智能系统的信任度变得尤为关键。可解释人工智能(XAI)指能提供它们的决策过程和结果解释的AI系统。XAI的出现推动了AI技术的发展,并增强了用户对AI系统的信任。因此,对IoT应用中的XAI研究进行综述。首先,介绍IoT和XAI的相关背景及意义;其次,介绍XAI的定义及关键技术;接着,介绍传统AI驱动的IoT应用的最新进展和XAI驱动的IoT应用的最新进展;最后,对XAI在IoT应用中的未来发展方向和相关挑战分别进行总结和展望。
针对推荐系统中双塔型神经网络难以学习用户侧和商品侧交互信息以及图连接信息的问题,提出一种二阶段孪生卷积神经网络推荐算法(TSN)。首先,以用户行为构建异质图;然后,在双塔型神经网络之间设计图卷积孪生网络,从而在学习异质图连接信息的同时进行信息交互;最后,通过设计特殊结构的二阶段孪生信息共享机制,使得用户侧和商品侧的神经网络在训练过程中能够动态地、双向地传输信息,且有效避免神经网络串联。在基于MovieLens和豆瓣电影数据集的对比实验中,NDCG@10、NDCG@50、NDCG@100相较于最优基准算法DAT(Dual Augmented Two-tower model for online large-scale recommendation)提升了11.39%~23.98%。结果表明,所提算法能够缓解双塔型神经网络缺乏信息交互的问题,较对比算法推荐性能提升显著。
情报分析的核心任务是从海量数据中提取事件关联并推导因果关系。然而,当前基于大语言模型(LLM)的方法在处理长文本时,受限于上下文窗口和计算复杂度,难以有效捕捉事件间的因果关联,导致推理能力显著下降,这一现象在参数规模较小的语言模型中尤为突出。针对这一问题,提出一种多Agent协作的知识推理(MAKR)框架。该框架通过增量式构建实体关系图,显式建模实体间的复杂关联,从而辅助LLM实现更精准的因果推理。双塔结构的设计使图模型与语言模型能够分别独立处理图结构信息和文本信息,并通过融合机制增强模型对长文本中复杂逻辑关系的理解能力。此外,在语言预测任务的基础上,增加针对图中节点关系的预测任务,从而进一步优化语义对齐效果。实验结果表明,在有限的计算资源条件下,在GDELT数据集的安全事件分析和OpenSanctions数据集的制裁关联分析任务中,MAKR框架的事件预测和因果推断的性能均显著优于HetGNN(Heterogeneous Graph Neural Network)和HiGPT等对比方法,验证了该框架在计算资源受限的工业场景中的实用价值。
构建数字孪生水利建设知识图谱挖掘水利建设对象之间的潜在关系能够帮助相关人员优化水利建设设计方案和决策。针对数字孪生水利建设的学科交叉和知识结构复杂的特性,以及通用知识抽取模型缺乏对水利领域知识的学习和知识抽取精度不足等问题,为提高知识抽取的精度,提出一种基于大语言模型的数字孪生水利建设知识抽取方法(DTKE-LLM)。该方法通过LangChain部署本地大语言模型(LLM)并集成数字孪生水利领域知识,基于提示学习微调LLM,LLM利用语义理解和生成能力抽取知识,同时,设计异源实体对齐策略优化实体抽取结果。在水利领域语料库上进行对比实验和消融实验,以验证所提方法的有效性。对比实验结果表明,相较于基于深度学习的双向长短期记忆条件随机场(BiLSTM-CRF)命名实体识别模型和通用信息抽取模型UIE(Universal Information Extraction),DTKE-LLM的精确率更优;消融实验结果表明,相较于ChatGLM2-6B(Chat Generative Language Model 2.6 Billion),DTKE-LLM的实体抽取和关系抽取F1值分别提高了5.5和3.2个百分点。可见,该方法在保障知识图谱构建质量的基础上,实现了数字孪生水利建设知识图谱的构建。
针对疾病间的共同作用与再入院情况的关系的挖掘不足以及相关模型泛化能力较弱的问题,提出一种基于图对比学习的再入院预测模型HealthGraph。首先,利用数据集中的疾病共现信息构建疾病编码图,以充分挖掘疾病之间的关联信息;其次,提出一种以图对比学习的思想为指导的患者数据增强方法,通过图采样器自适应地捕捉与任务相关的拓扑结构,构造新视图,提升数据丰富度,从而提高模型的泛化性能;最后,结合初始疾病编码图嵌入和新视图嵌入进行再入院预测。在真实数据集MIMIC-Ⅲ上构建呼吸系统疾病和循环系统疾病这2个数据集并进行大量实验。结果表明,相较于反转时间注意力模型(RETAIN)和阶段感知神经网络模型(StageNet),所提模型在准确率和F1指标上提升了1个百分点左右。此外,2组消融实验结果验证了所提模型在提高再入院预测的准确性和泛化性中的有效性。
3D/2D配准是手术导航的关键技术,现有基于深度学习的配准方法通过网络提取图像特征,继而回归出相应的姿态变换参数。此类方法依赖于真实的样本以及对应的3D标签用于训练,然而这部分专家标注的医疗数据十分稀缺。替代的方案用数字重建放射影像(DRR)图像训练网络,由于图像特征跨域的差异,在X射线图像上难以保持原有的配准精度。针对上述问题,设计基于自注意力的无监督跨域迁移网络(UCDTN),无须依赖X射线图像与其对应的3D空间标签作为训练样本,将源域所捕获的图像特征与空间变换间的对应关系迁移到目标域,借助公共特征减小域间特征的差距、降低跨域所带来的负面影响。实验结果表明,UCDTN预测结果的平均配准误差(mTRE)为2.66 mm;与未经跨域迁移训练的模型相比,mTRE指标降低了70.61%,验证了UCDTN在跨域配准任务上的有效性。
为优化基于异构图编码器的Text-to-SQL生成效果,提出SELSQL模型。首先,模型采用端到端的学习框架,使用双曲空间下的庞加莱距离度量替代欧氏距离度量,以此优化使用探针技术从预训练语言模型中构建的语义增强的模式链接图;其次,利用K头加权的余弦相似度以及图正则化方法学习相似度度量图使得初始模式链接图在训练中迭代优化;最后,使用改良的关系图注意力网络(RGAT)图编码器以及多头注意力机制对两个模块的联合语义模式链接图进行编码,并且使用基于语法的神经语义解码器和预定义的结构化语言进行结构化查询语言(SQL)语句解码。在Spider数据集上的实验结果表明,使用ELECTRA-large预训练模型时,SELSQL模型比最佳基线模型的准确率提升了2.5个百分点,对于复杂SQL语句生成的提升效果很大。
针对红外弱小目标跟踪准确性较低这一问题,提出一种基于孪生网络和Transformer的红外弱小目标跟踪方法。首先,构建多特征提取级联模块分别提取红外弱小目标模板帧和搜索帧的深度特征,并将二者分别与其对应的HOG特征进行维度层面的串联;其次,引入多头注意力机制Transformer进行模板特征图和搜索特征图的互相关操作,生成响应图;最后,通过响应图上采样网络和边界框预测网络,获得目标在图像的中心位置和回归边界框,完成对红外弱小目标的跟踪。在包含13 655张红外图像数据集上的测试结果表明:与KeepTrack跟踪方法相比,成功率提高5.9个百分点,精确率提高1.8个百分点;与TransT(Transformer Tracking)方法相比,成功率提高14.2个百分点,精确率提高14.6个百分点,证明所提方法对复杂背景下的红外弱小目标跟踪准确性更高。
针对分布式位置大数据收集导致的信息孤岛问题和位置隐私泄露面临的风险,提出一种基于联邦学习的位置大数据统计预测与隐私保护方法。首先,构建基于横向联邦学习的位置大数据统计预测发布框架,该框架允许各行政区域的数据收集者保留各自的原始数据,并使多个参与方通过交换训练参数来协同完成预测模型的训练任务;其次,针对具有时空序列特性的位置大数据密度统计预测问题,设计PVTv2-CBAM,以提高客户端预测结果的准确性;最后,提出一种差分隐私预算的动态分配和调整算法,并结合MMA (Modified Moments Accountant)机制实现对客户端模型的差分隐私保护。实验结果表明,相较于卷积神经网络(CNN)、长短期记忆(LSTM)网络、卷积LSTM(ConvLSTM)模型,PVTv2-CBAM在Yellow_tripdata数据集和T-Driver轨迹数据集上预测的平均绝对误差分别降低0~62%和39%~44%;所提差分隐私预算动态分配和调整算法在调整阈值为0.3和0.7时,使模型预测的准确率与无动态调整相比分别提高了约5%与6%。以上结果验证了所提方法的可行性和有效性。
为了更好地满足中餐菜品识别对准确性和时效性的应用需求,设计一种新型的菜品识别网络。在原YOLOv5模型的基础上,结合Supermask方法与结构化通道剪枝对模型进行剪枝操作,并利用Int8量化技术最终实现对模型的轻量化处理,保证模型在菜品识别中兼顾准确率和速度,同时提高模型的可移植性。实验结果表明,所提模型在交并比(IoU)为0.5时,平均精度均值(mAP)达到99.00%,平均每帧识别时间达到59.54 ms,相较于原始YOLOv5降低了20 ms,且准确率基本保持一致。此外,利用Qt软件将新型菜品识别网络移植到瑞萨RZ/G2L开发板,构建智能出餐系统,可实现点餐、生成订单、自动出餐全流程,为未来真正的餐厅智能出餐系统的构建应用提供了理论与实践基础。
针对多机器人在人群环境中路径跟随与编队的避障及运动轨迹平滑性问题,提出基于深度强化学习的多机器人路径跟随与编队算法。首先,建立行人危险性优先级机制,结合行人危险性优先级机制与强化学习设计危险意识网络,提高多机器人编队的安全性;然后,引入虚拟机器人作为多机器人的跟随目标,将路径跟随转化为多机器人对虚拟机器人的跟随控制,提高机器人运动轨迹的平滑性;最后,通过仿真实验将所提算法与现有算法进行对比,同时进行定量与定性分析。实验结果表明,与现有点对点的路径跟随算法相比,所提算法在人群环境下具有优异的避障性能,可保证多机器人运动轨迹的平滑性。