随着物联网(IoT)的快速发展,大量在传感器等边缘场景产生的数据需要传输至云节点处理,这带来了极大的传输成本和处理时延,而云边协同为这些问题提供了有效的解决方案。首先,在全面调查和分析云边协同发展过程的基础上,结合当前云边智能协同中的研究思路与进展,重点分析和讨论了云边架构中的数据采集与分析、计算迁移技术以及基于模型的智能优化技术;其次,分别从边缘端和云端深入分析了各种技术在云边智能协同中的作用及应用,并探讨了云边智能协同技术在现实中的应用场景;最后,指出了云边智能协同目前存在的挑战及未来的发展方向。
为了研究新型智能优化算法的性能和应用前景,选择了近几年提出的6种仿生智能优化算法:哈里斯鹰优化(HHO)算法、平衡优化(EO)算法、海洋捕食者算法(MPA)、政治优化(PO)算法、黏液霉菌算法(SMA)和堆阵优化(HBO)算法,对其性能和在不同带约束的工程优化问题上的应用进行对比分析。首先,对6种优化算法的基本原理进行介绍;然后,用6种优化算法对10个基准测试函数进行寻优测试;接着,将6种优化算法用于求解3种带约束的工程优化问题。实验结果表明,对于单峰和多峰测试函数的寻优,PO的收敛精度最佳,能够多次达到理论最优值0,且收敛速度较快;对于求解工程约束问题,EO和MPA较好,因为的标准差的数量级较小,且寻优速度较快,稳定性高。最后,分析了6种优化算法的改进方法及其发展潜力。
随着移动设备和新兴移动应用的广泛使用,移动网络中流量的指数级增长所引发的网络拥塞、时延较大、用户体验质量差等问题无法满足移动用户的需求。边缘缓存技术通过对网络热点内容的复用,能极大缓解无线网络的传输压力;同时,该技术减少用户请求的网络时延,进而改善用户的网络体验,已经成为面向5G/Beyond 5G的移动边缘计算(MEC)中的关键性技术之一。围绕移动边缘缓存技术,首先介绍了移动边缘缓存的应用场景、主要特性、执行过程和评价指标;其次,对以低时延高能效、低时延高命中率及最大化收益为优化目标的边缘缓存策略进行了分析和对比,并总结出各自的关键研究点;然后,阐述了支持5G的MEC服务器的部署,并在此基础上分析了5G网络中的绿色移动感知缓存策略和5G异构蜂窝网络中的缓存策略;最后,从安全、移动感知缓存、基于强化学习的边缘缓存、基于联邦学习的边缘缓存以及Beyond 5G/6G网络的边缘缓存等几个方面讨论了边缘缓存策略的研究挑战和未来发展方向。
高准确率的资源负载预测能够为实时任务调度提供依据,从而降低能源消耗。但是,针对资源负载的时间序列的预测模型,大多是通过提取时间序列的长时序依赖特性来进行短期或者长期预测,忽略了时间序列中的短时序依赖特性。为了更好地对资源负载进行长期预测,提出了一种基于长-短时序特征融合的边缘计算资源负载预测模型。首先,利用格拉姆角场(GAF)将时间序列转变为图像格式数据,以便利用卷积神经网络(CNN)来提取特征;然后,通过卷积神经网络提取空间特征和短期数据的特征,用长短期记忆(LSTM)网络来提取时间序列的长时序依赖特征;最后,将所提取的长、短时序依赖特征通过双通道进行融合,从而实现长期资源负载预测。实验结果表明,所提出的模型在阿里云集群跟踪数据集CPU资源负载预测中的平均绝对误差(MAE)为3.823,均方根误差(RMSE)为5.274,拟合度(R2)为0.815 8,相较于单通道的CNN和LSTM模型、双通道CNN+LSTM和ConvLSTM+LSTM模型,以及资源负载预测模型LSTM-ED和XGBoost,所提模型的预测准确率更高。
无人机(UAV)灵活机动、易于部署,可以辅助移动边缘计算(MEC)帮助无线系统提高覆盖范围和通信质量,但UAV辅助MEC系统研究中存在计算延迟需求和资源管理等挑战。针对UAV为地面多个终端设备提供辅助计算服务的时延问题,提出一种基于双延迟深度确定性策略梯度(TD3)的时延最小化任务卸载算法(TD3-TOADM)。首先,将优化问题建模为在能量约束下的最小化最大计算时延的问题;其次,通过TD3-TOADM联合优化终端设备调度、UAV轨迹和任务卸载比来最小化最大计算时延。仿真实验分析结果表明,与分别基于演员-评论家(AC)、深度Q网络(DQN)以及深度确定性策略梯度(DDPG)的任务卸载算法相比,TD3-TOADM得到的计算时延减小了8.2%以上。可见TD3-TOADM能获得低时延的最优卸载策略,具有较好的收敛性和鲁棒性。
针对强化学习的大多数探索/利用策略在探索过程中忽略智能体随机选择动作带来的风险的问题,提出一种基于因子分解机(FM)用于安全探索的Q表初始化方法。首先,引入Q表中已探索的Q值作为先验知识;然后,利用FM建立先验知识中状态和行动间潜在的交互作用的模型;最后,基于该模型预测Q表中的未知Q值,从而进一步引导智能体探索。在OpenAI Gym的网格强化学习环境Cliffwalk中进行的A/B测试里,基于所提方法的Boltzmann和置信区间上界(UCB)探索/利用策略的不良探索幕数分别下降了68.12%和89.98%。实验结果表明,所提方法提高了传统策略的探索安全性,同时加快了收敛。
针对量子硬件规模逐步扩大、当下量子计算经典模拟速度不高的问题,提出了基于神威超算量子模拟器的两种优化方法。首先,通过改进张量转置策略和计算策略重新构建了张量收缩算子库SWTT,从而提高了部分张量收缩的计算内核效率并减少了冗余访存;其次,通过提高数据局部性的收缩路径调整方法实现了路径计算复杂度和计算效率之间的均衡。测试结果表明,该算子库改进方法可将“悬铃木”量子霸权电路模拟效率提升5.4%,单步张量收缩效率最高提升49.7倍;该路径调整方法可在路径计算复杂度膨胀2倍条件下提升约4倍的浮点效率。两种优化方法使神威超算整机模拟谷歌53量子比特20层量子芯片随机电路百万振幅采样的单精度和混合精度浮点运算效率分别从3.98%和1.69%提升至18.48%和7.42%,理论估计模拟时间从单精度的470 s降至226 s,混合精度的304 s降至134 s,证明两种方法大幅提高了量子计算模拟速度。
随着云计算技术的快速发展,数据中心的数量大幅增加,随之而来的能源消耗问题逐渐成为一个研究热点。针对服务器能耗优化问题,提出了一种融合极限梯度提升(XGBoost)和多个门控循环单元(Multi-GRU)的数据中心服务器能耗优化(ECOXG)算法。首先利用Linux终端监控命令和功耗仪收集服务器各部件的资源占用信息和能耗等数据,并对其进行数据预处理来得到资源利用率。其次将资源利用率串联构造成向量形式的时间序列,用其训练Multi-GRU负载预测模型,并根据预测结果对服务器进行模拟降频,以得到降频后的负载数据。然后将服务器的资源利用率与相同时刻的能耗数据相结合,并用其训练XGBoost能耗预测模型。最后将降频后的负载数据输入到训练后的XGBoost模型中,从而预测出降频后的服务器能耗。在6台物理服务器实际资源利用率数据上的实验表明,与卷积神经网络(CNN)、长短期记忆(LSTM)网络、CNN-GRU和CNN-LSTM模型相比,ECOXG算法在均方根误差(RMSE)上分别降低了50.9%、31.0%、32.7%、22.9%;同时,与LSTM、CNN-GRU和CNN-LSTM模型相比,ECOXG算法在训练时间上分别节省了43.2%、47.1%、59.9%。实验结果表明,ECOXG算法能够在服务器能耗预测和能耗优化方面提供一定的理论基础,且在准确性和运行效率方面明显优于对比算法。此外,模拟降频后的服务器能耗已明显低于真实能耗,且在服务器的利用率较低时降耗效果显著。
针对标准黏菌算法(SMA)存在的容易陷入局部最优解、收敛速度慢以及求解精度低等问题,提出一种多策略融合的改进黏菌算法(MSISMA)。首先,引入布朗运动和莱维飞行机制以增强算法的搜索能力;其次,根据算法进行的不同阶段分别改进黏菌的位置更新公式,以提高算法的收敛速度和收敛精度;然后,应用区间自适应的反向学习(IAOBL)策略生成反向种群,以提升种群的多样性和质量,从而提高算法的收敛速度;最后,引入收敛停滞监测策略,当算法陷入局部最优时,通过对部分黏菌个体的位置重新初始化使算法跳出局部最优。选取23个测试函数,将MSISMA与平衡黏菌算法(ESMA)、黏菌-自适应引导差分进化混合算法(SMA-AGDE)、SMA、海洋捕食者算法(MPA)和平衡优化器(EO)进行测试和比较,并对算法运行结果进行Wilcoxon秩和检验。相较于对比算法,MSISMA在19个测试函数上获得最佳平均值,在12个测试函数上获得最佳标准差,优化精度平均提升23.39%~55.97%。实验结果表明,MSISMA的收敛速度、求解精度和鲁棒性明显较优。
针对认知无线电中以最大化网络效益为准则的频谱分配难题以及蝠鲼觅食优化(MRFO)算法难以解决频谱分配问题的不足,提出一种离散蝠鲼觅食优化(DMRFO)算法。根据工程中频谱分配问题具有亲1性的特点,首先,基于Sigmoid函数(SF)离散法对MRFO算法进行离散二进制化;然后,通过异或算子和速度调节因子引导蝠鲼根据当前速度大小自适应向最优解调整下一时刻的位置;同时,通过在全局最优解附近进行二进制螺旋觅食避免算法陷入局部最优;最后,将提出的DMRFO算法应用于解决频谱分配问题。仿真实验结果表明,采用DMRFO算法分配频谱时的网络效益的收敛均值和标准差分别为362.60和4.14,该结果显著优于离散人工蜂群(DABC)算法、二进制粒子群优化(BPSO)算法以及改进的二进制粒子群优化(IBPSO)算法。
研究多机器人任务分配(MRTA)的目的是提高智能工厂中机器人完成任务的效率。针对现有算法在处理大规模、多约束的MRTA时存在不足的问题,提出一种结合遗传算法和滚动调度的MRTA算法(ACGARS)。首先,在遗传算法中采用基于有向无环图(DAG)的编码方式高效地处理任务之间的优先级约束;其次,在遗传算法的初始种群中加入先验知识以提高算法的搜索效率;最后,设计基于任务组的滚动调度策略用于减小求解问题的规模,从而实现对大规模问题的高效求解。在大规模问题实例上的实验结果表明,相较于构造性启发式算法(CHA)、最小化干扰算法(MIA)和基于惩罚策略的遗传算法(GAPS)生成的方案,当任务组数为20时,所提算法生成的方案的平均订单完成时间分别缩短了30.02%、16.86%和75.65%,验证了所提算法能有效地缩短订单的平均等待时间,提升多机器人任务分配效率。
在边缘计算(EC)网络中,针对边缘节点计算资源和存储空间有限的问题,提出一种基于改进深度强化学习(DRL)的边缘计算服务卸载(ECSO)算法,以降低节点处理时延和提高服务性能。具体来说,将边缘节点服务卸载问题转化为资源受限的马尔可夫决策过程(MDP),利用DRL算法解决边缘节点的请求状态转移概率难以精确预测的问题;考虑到边缘节点执行缓存服务的状态动作空间过大,定义新的动作行为替代原有动作,并依据提出的动作筛选算法得到最优动作集合,以改进计算动作行为奖励值的过程,进而大幅度降低动作空间大小,提高算法训练的效率以及收益。仿真实验结果表明,对比原深度Q网络(DQN)算法、邻近策略优化(PPO)算法以及传统的最流行(MP)算法,ECSO算法的总奖励值分别提升了7.0%、12.7%和65.6%,边缘节点服务卸载时延分别降低了13.0%、18.8%和66.4%,验证了算法的有效性,说明ECSO能有效提升边缘计算服务的卸载性能。
针对传统萤火虫算法(FA)中存在的易陷入局部最优及收敛速度慢等问题,把莱维飞行和精英参与的交叉算子及精英反向学习机制融入到萤火虫优化算法中,提出了一种多策略融合的改进萤火虫算法——LEEFA。首先,在传统萤火虫算法的基础上引入莱维飞行,从而提升算法的全局搜索能力;其次,提出精英参与的交叉算子以提升算法的收敛速度和精度,并增强算法迭代过程中解的多样性和质量;最后,结合精英反向学习机制进行最优解的搜索,从而提高FA跳出局部最优的能力和收敛性能,并实现对于解搜索空间的迅速勘探。为验证所提出的算法的有效性,在基准测试函数上进行了仿真实验,结果表明相较于粒子群优化(PSO)算法、传统FA、莱维飞行萤火虫算法(LFFA)、基于莱维飞行和变异算子的萤火虫算法(LMFA)和自适应对数螺旋-莱维飞行萤火虫优化算法(ADIFA)等算法,所提算法在收敛速度和精度上均表现得更为优异。
针对目前用多目标进化算法(MOEA)处理约束多目标优化问题(CMOP)的研究通常以解决单一类型约束为主,而在面对不同种类的复杂约束时算法难以收敛或者种群分布性差的问题,以基于分解的多目标进化算法(MOEA/D)框架为基础,提出一种基于参考向量的自适应约束多目标进化算法(ARVCMOEA)。首先将参考向量分成主参考向量及辅助参考向量两部分,然后在算法起始阶段通过无约束的辅助参考向量指导种群快速跨越不可行区间,最后通过自适应地调整辅助参考向量的位置及弱化对其的分布性要求来提高算法分布性及搜索能力。实验在30个具有不同种类复杂约束的测试函数上进行了验证,结果表明所提算法面对不同种类的约束时均可以很好地收敛,在总体性能上均优于NSGA-II(Non-dominated Sorting Genetic Algorithm II)、C-MOEA/D(Constraint-MOEA/D)及MOEA/D-DAE,并且相较于目前性能优异的CCMO(Coevolutionary Constrained Multi-objective Optimization framework)在部分测试函数上可以得到更优异的结果。可见,所提算法在面对不同种类的CMOP时具有优异的性能。
K-Means算法在处理大规模异构数据时,通常使用欧氏距离来衡量数据点之间的相似度,然而这样存在效率低下以及计算复杂性过高的问题。受到汉明距离在处理数据相似性计算上存在显著优势的启发,提出一种基于汉明距离的量子K-Means(QKMH)算法来计算相似度。首先,将数据制备成量子态,并使用量子汉明距离计算待聚类点和K个聚类中心之间的相似度;然后,改进了Grover最小值搜索算法查找距离待聚类点最近的聚类中心;最后,循环以上步骤,直到达到规定迭代次数或者聚类中心不再改变。基于量子模拟计算框架QisKit,将提出的算法在MNIST手写数字数据集上进行了验证并与传统和改进的多种方法进行了对比,实验结果表明,QKMH算法的F1值相较于基于曼哈顿距离的量子K-Means算法提高了10个百分点,相较于最新优化的基于欧氏距离的量子K-Means算法提高了4.6个百分点;同时经计算,QKMH算法时间复杂度比上述对比算法更低。
针对具有截止期的云工作流完成时间与执行成本冲突的问题,提出一种混合自适应粒子群工作流调度优化算法(HAPSO)。首先,基于截止期建立有向无环图(DAG)云工作流调度模型;然后,通过范数理想点与自适应权重的结合,将DAG调度模型转化为权衡DAG完成时间和执行成本的多目标优化问题;最后,在粒子群优化(PSO)算法的基础上引入自适应惯性权重、自适应学习因子、花朵授粉算法的概率切换机制、萤火虫算法(FA)和粒子越界处理方法,从而平衡粒子群的全局搜索与局部搜索能力,进而求解DAG完成时间与执行成本的目标优化问题。实验中对比分析了PSO、惯性权重粒子群算法(WPSO)、蚁群算法(ACO)和HAPSO的优化结果。实验结果表明,HAPSO在权衡工作流(30~300任务数)完成时间与执行成本的多目标函数值上降低了40.9%~81.1%,HAPSO在工作流截止期约束下有效权衡了完成时间与执行成本。此外,HAPSO在减少完成时间或降低执行成本的单目标上也有较好的效果,验证了HAPSO的普适性。
针对麻雀搜索算法(SSA)存在寻优精度不高且易陷入局部最优的问题,提出一种基于多个改进策略的增强麻雀搜索算法(EMISSA)。首先,为平衡算法的全局和局部搜索能力,引入模糊逻辑来动态调整麻雀发现者的规模;其次,对麻雀跟随者进行混合差分变异操作以产生变异子群,从而增强EMISSA跳出局部最优的能力;最后,通过拓扑对立学习(TOBL)产生当前麻雀发现者个体的拓扑对立解,以充分挖掘搜索空间内的优质位置信息。通过2013年进化计算大会(CEC2013)中的12个测试函数评估EMISSA、标准SSA以及混沌麻雀搜索优化算法(CSSOA)等改进麻雀算法的性能。实验结果表明,EMISSA在30维情况下,在12个测试函数上获得了11个第一;在80维情况下,在所有的测试函数上都获得了第一。而在Friedman检验中,EMISSA的排名均获得了第一。将EMISSA应用于障碍物环境下的无线传感器网络(WSN)节点部署,实验结果表明,相较于其他算法,EMISSA获得了最高的无线节点覆盖率,节点分布更均匀,覆盖冗余更少。
针对卷积神经网络(CNN)中的传统池化算法不能很好地考虑到池化域内每个元素与该池化域所含特征之间关联性的问题,提出一种基于高斯函数的池化算法。首先根据池化域内各元素的值和所有元素的最大值计算高斯函数的三个参数值,然后运用高斯函数计算池化域内所有元素的权重,最后根据这些权重对池化域内所有元素值计算加权平均值,并以此作为池化结果。选择LeNet5、VGG16、ResNet18和MobileNet v3作为实验模型,在公开数据集CIFAR-10、Fer2013和德国交通标志识别基准(GTSRB)上进行实验,并与最大池化、平均池化、随机池化、混合池化、模糊池化、融合随机池化和soft池化这七种池化算法进行对比。实验结果表明,所提算法在三个数据集上相较其他算法在精度方面均有0.5个百分点到6个百分点的提升,且在运行效率方面优于上述除最大池化和平均池化两种池化算法外的其他池化算法,从而验证所提算法有效且具适合应用于对运算时间要求不高但对精度要求较高的情况。
双层规划涉及上层和下层两个最优化问题,上层规划问题的约束域由下层规划问题隐式确定,双层优化以上层目标为主,而下层目标在下层变量方面必须达到最优。双层规划问题的递阶结构使其具有很高的计算复杂度,特别是频繁计算下层问题会累计很大的计算量。为了有效求解这类问题,提出一种基于近似技术的进化算法。首先,采取多种群协同进化,分别利用交叉和变异算子平衡算法的开采和勘探能力;其次,基于灵敏度分析理论,设计了新个体的近似评价方式以减少算法的下层求解次数。一个算例的近似效果演示结果表明,由近似技术得到的近似后代个体与精确后代个体的位置大部分是重合的。除此之外,在10个常用算例上的结果显示,所提算法比多值映射算法获得了更好的最优解;并且根据CPU时间比较,说明近似技术有效地提高了找到最优解的速度,减少了运行时间,验证了所提算法采取的近似技术的有效性。
面向服务的架构(SOA)下,针对服务组合优化过程中易陷入局部最优、时间开销大的问题,提出一种加入自适应交叉算子和随机扰动算子的改进磷虾群算法PRKH。首先基于服务质量(QoS)建立了服务组合优化模型,并给出不同结构下QoS的计算公式和归一化处理方法。然后在磷虾群(KH)算法的基础上加入自适应的交叉概率和基于实际偏移量的随机扰动,从而在磷虾群的全局搜索能力和局部搜索能力之间达到良好平衡。最后通过仿真,把所提算法与KH算法、粒子群优化(PSO)算法、人工蜂群(ABC)算法和花朵授粉算法(FPA)进行对比,实验结果表明,PRKH算法能够更快找到QoS更优的复合服务。
针对卷积神经网络(CNN)在异构平台执行推理时存在硬件资源利用率低、延迟高等问题,提出一种CNN推理模型自适应划分和调度方法。首先,通过遍历计算图提取CNN的关键算子完成模型的自适应划分,增强调度策略灵活性;然后,基于性能实测与关键路径-贪婪搜索算法,在CPU-GPU异构平台上根据子模型运行特征选取最优运行负载,提高子模型推理速度;最后利用张量虚拟机(TVM)中跨设备调度机制,配置子模型的依赖关系与运行负载,实现模型推理的自适应调度,降低设备间通信延迟。实验结果表明,与TVM算子优化方法在GPU和CPU上的推理速度相比,所提方法在模型推理准确度无损前提下,推理速度提升了5.88%~19.05%和45.45%~311.46%。
针对“中心云服务器+多个边缘服务器”构成的“云+边”混合环境中多任务卸载效率不足的问题,提出了一种基于概率性能感知演化博弈策略的任务卸载方法。首先,在一个“中心云服务器+多个边缘服务器”构成的“云+边”混合环境中,假设其中分布的边缘服务器具有时变波动的性能,采用一种基于概率性能感知演化博弈策略的任务卸载方法对边缘云服务器的历史性能数据进行概率分析,以获得演化博弈模型;然后,生成服务卸载的演化稳定策略(ESS),使每个用户都能在获得高满意度的前提下进行任务的卸载。基于云边缘资源位置数据集和云服务性能测试数据集进行模拟实验,在24个连续时间窗口上进行不同方法的测试比较。实验结果表明,所提方法在多个性能指标上都优于传统的贪婪(Greedy)算法、遗传算法(GA)和基于纳什均衡的博弈论算法等任务卸载方法。该方法的平均用户期望达成度相较于三个对比方法分别提升了13.7%、117.0%、13.8%,平均卸载时延分别降低了6.5%、24.9%、8.3%,平均货币成本分别降低了67.9%、88.7%、18.0%。
软件定义网络(SDN)中,流表项是由控制器创建并指导交换机处理数据包的转发规则。流表项保存在交换机的内存并有一定的超时时间,会影响SDN控制通道的带宽消耗、交换机的内存消耗以及系统资源和性能的管理。针对现有SDN性能优化方案大多为单一目标优化,未考虑流表项超时类型和时间对不同优化目标的影响,提出一种基于流表项动态混合超时的多目标优化方案,对大象流的侦测精度、流表项的交换机内存消耗和控制通道带宽占用进行三目标联合优化。动态混合超时将现有的两种流表项超时方式,即硬超时和空闲超时相结合,并对流表项的超时类型和时间进行双维度动态调节。通过NSGA-Ⅱ算法求解所提优化问题,评估不同超时方式和超时时间对三个优化目标的影响,并通过合并特定超时时间下的解集与贝叶斯多目标优化算法的解集对NSGA-Ⅱ算法的解集质量进行改进。结果表明,所提方案能提供更高的侦测精度、更低的带宽占用和更小的交换机内存消耗,明显提升了SDN的综合性能。