命名数据网络(NDN)的独特优势使其被认为是下一代新型互联网体系架构的候选者。通过对NDN通信原理的分析以及与传统传输控制协议/网际协议(TCP/IP)体系架构的对比,阐述了该新型体系架构所具有的优势,并在此基础上总结分析了该网络体系架构设计的关键要素。此外,为更好地帮助研究人员了解这一新型网络架构,总结了NDN经过多年发展已取得的成功应用,并紧随主流技术,重点介绍NDN对前沿区块链技术的支持,且依托该支持对基于NDN和区块链技术应用的研究和发展进行了讨论和展望。
网联车辆节点产生的不同属性的大数据流量计算任务进行传输并卸载时,通常引起通信系统中时延抖动、计算能耗与系统开销大等问题,因此,根据实际通信环境,提出一种C-V2X车联网(IoV)中基于模拟退火算法(SAA)的任务卸载与资源分配方案。首先,根据任务处理优先程度,对处理优先程度较高的任务进行协同卸载计算处理;其次,通过全局搜索最优卸载比例因子的方式,制定了一种基于SAA的任务卸载策略,且分析并优化了任务卸载比例因子;最后,在任务卸载比例因子更新过程中,将系统开销最小化问题转化为功率和计算资源分配凸优化问题,并利用拉格朗日乘子法获取最优解。通过对所提算法与本地卸载、自适应遗传算法等作比较可知,随着计算任务的数据量不断增加,自适应遗传算法比本地卸载的时延、能耗、系统开销分别降低了5.97%、49.40%、49.36%,在此基础上基于SAA的方案较自适应遗传算法的时延、能耗、系统开销再降低了6.35%、92.27%、91.7%;随着计算任务CPU周期数不断增加,自适应遗传算法比本地卸载的时延、能耗、系统开销分别降低了16.4%、49.58%、49.23%,在此基础上基于SAA的方案较自适应遗传算法的时延、能耗、系统开销再降低了19.61%、94.39%、89.88%。实验结果表明,SAA不仅能降低通信系统时延、能耗及系统开销,还可以使结果加速收敛。
针对可重构智能超表面(RIS)辅助无线通信系统中使用传统信道估计方法导频开销过高的问题,提出了一种基于块稀疏的正交匹配追踪(OMP)信道估计方案。首先,根据毫米波(mmWave)信道模型推导出级联信道矩阵,并将其转换到虚拟角域(VAD)中以获得级联信道的稀疏表示;其次,利用级联信道特有的稀疏特性将信道估计问题转换成稀疏矩阵恢复问题,并使用压缩感知的重构算法进行稀疏矩阵的恢复;最后,通过分析特殊的行-块稀疏结构,对传统的OMP方案进行优化,从而进一步减少导频开销并提升估计性能。仿真结果表明,与传统的OMP方案相比,所提出的基于行-块稀疏结构的优化OMP方案的归一化均方误差(NMSE)减小了大约1 dB。可见,所提出的信道估计方案能够有效减少导频开销并获得更好的估计性能。
基于信息中心网络(ICN)的近地轨道(LEO)超大规模卫星星座是一种支持物联网(IoT)非常理想的网络架构,而数据命名是ICN基本问题之一。针对IoT低时延传输、高吞吐量的数据分发的需要,提出了一种基于ICN的面向IoT的LEO超大规模卫星星座数据命名机制。首先,该数据命名机制采用一种融合分层、多分量、哈希的扁平一体结构。然后,采用前缀标记描述分层名称,满足网内功能中多源快速检索的需要。最后,为检验所提数据命名机制的性能,设计开发了一个基于网络仿真器3(NS-3)的面向IoT的LEO超大规模卫星星座仿真平台。测试仿真结果表明,与传统的基于互联网协议(IP)的体系结构相比,所提出的数据命名机制能够为面向IoT的LEO超大规模卫星星座提供高吞吐量和低延时等更高的服务质量(QoS)。
无线通信网络流量预测对运营商建设网络、管理基站无线资源和提升用户体验具有重要意义。然而,现有的集中式算法模型面临着复杂性和时效性问题,难以满足城市全域尺度的通信流量预测需求。因此,提出一个分布式的云边协同下的无线通信流量预测框架,以较低的复杂度和通信开销实现基于单栅格基站的流量预测。在分布式架构的基础上,提出了基于联邦学习的无线通信流量预测模型。各个栅格流量预测模型同步训练,通过中心云服务器利用JS(Jensen-Shannon)散度挑选出流量分布相似的栅格流量模型,并采用联邦平均(FedAvg)算法融合具有相似流量分布的栅格流量模型的参数,从而在提高模型泛化性的同时达到保持对本地流量精准刻画的目的。此外,由于城市范围内不同地区流量具有高度差异化的特征,在FedAvg的基础上,提出了基于合作博弈的联邦训练方法,将栅格作为合作博弈的参与者,结合超可加性准则筛选栅格,并引入合作博弈的核和夏普利值分配收益以确保联盟的稳定性,提高模型预测的准确性。实验结果表明,以短消息业务(SMS)流量为例,与栅格独立式训练相比,所提模型的预测误差下降在郊区最为明显,下降范围在26.1%~28.7%,在市区下降范围在0.7%~3.4%,在市中心下降范围在0.8%~4.7%;与栅格集中式训练相比,3个区域的模型预测误差下降范围在49.8%~79.1%。
随着区块链技术的不断发展,区块的传输延迟成为区块链系统可扩展性的性能瓶颈。远程直接内存访问(RDMA)技术能够支持高带宽和低时延的数据传输,为低延迟区块传输提供了新的思路。因此,结合RDMA原语的特性,设计了用于区块信息共享的区块目录结构,并在此基础上设计并实现了区块传输的基本工作过程。实验结果表明,相较于基于TCP的方案,在1 MB大小的区块上基于RDMA的区块传输机制将节点间的区块传输延迟降低了44%,全网络的区块传输延迟降低了24.4%,在10 000节点规模的区块链上,区块链发生临时分叉的数量降低了22.6%。可见,基于RDMA的区块传输机制充分发挥了高速网络的性能优势,降低了区块传输延迟及临时分叉的数量,提高了现有区块链系统的可扩展性。
针对网络僵化的问题,目前多采用网络虚拟化(NV)方法进行解决,其关键技术是虚拟网络映射(VNE)。为解决无线VNE过程中功率和带宽资源使用不均衡的问题,基于负载均衡原理提出一种联合资源分级的无线VNE算法。首先,采用新的节点资源排序方式,其中将节点功率和平均链路带宽作为排序依据;其次,对资源进行分级,以动态调整虚拟网络请求对功率和带宽资源的需求;最后,改进功率和带宽资源的单位成本,并以最小化成本为目标函数选择资源分配方案。与原有的无线VNE算法WVNE-JBP相比,所提算法的总体接受率提高了11.7个百分点,平均功率利用率提高了4.4个百分点,平均带宽利用率提高了1.6个百分点。实验结果表明,所提算法能有效提高虚拟网络接受率和资源利用率。
针对数据中心网络的传统流量调度方法容易引起网络拥塞及链路负载不均衡等问题,提出了一种差分进化(DE)融合蚁群(ACO)算法(DE-ACO)的动态流量调度机制,对数据中心网络中的大象流调度进行优化。首先,利用软件定义网络(SDN)技术捕获实时网络状态信息并设定流量调度的优化目标;然后,通过优化目标重定义DE算法,计算出多条可用候选路径,作为ACO算法的初始化全局信息素;最后,结合全局网络状态以求得全局最优路径,并重新路由拥堵链路上的大象流。实验结果表明,以在随机通信模式下为例,与等价多路径路由(ECMP)算法和基于蚁群算法的SDN数据中心网络流量调度(ACO-SDN)算法相比,所提算法的平均对分带宽分别提高了29.42%~36.26%和5%~11.51%,降低了网络的最大链路利用率(MLU),较好地实现了网络负载均衡。
针对基于超文本传输协议(HTTP)的动态自适应流(DASH)码率自适应算法未能充分利用视频缓存以及平均码率偏低的问题,提出一种DASH标准的基于缓存补偿的码率自适应切换(BASBC)算法。首先,根据最近下载分片的下载速率分析带宽波动程度并得到预估带宽;其次,依据预估带宽和当前码率等级在缓存区设置码率上切阈值和码率下切阈值,并利用动态上切阈值控制码率向上切换,消耗缓存时长,而利用动态下切阈值控制码率向下逐级切换,累积缓存时长,从而在缓存区形成累积-消耗的缓存状态循环。BASBC算法在视频播放平均码率上高于动态自适应的HTTP流码率渐进切换(DASBS)算法,有效提高了带宽利用率;虽然所提算法的平均码率稍低于基于DASH标准的码率平滑切换(RSS)算法,但所提算法的码率切换更为平滑,整体切换稳定性表现更优。实验结果表明,所提算法在动态网络环境中具有高带宽利用、切换平滑且稳定的良好表现,能够有效提高用户的体验质量(QoE)。
针对软件定义车联网(SDIV)的车-路实时查询类通信场景中单链路故障的问题,提出一种面向SDIV的链路故障快速恢复方法,综合考虑了链路恢复过程时延和恢复后路径的传输时延。首先,对故障恢复时延建模,将最小化时延的优化目标转化为0-1整数线性规划问题。然后,分析该问题,力图最大化复用已有计算结果,并根据不同情况提出两种算法:在流表更新时延相对路径传输延迟不可被忽略的情况下,提出基于拓扑划分的路径恢复算法(PRA-TP);在流表更新时延相对路径传输延迟较小可被忽略的情况下,提出基于单链路搜索的路径恢复算法(PRA-SLS)。实验结果表明,相较于Dijkstra算法,PRA-TP的计算时延和路径恢复时延分别降低25%和40%,PRA-SLS的计算时延降低60%,可实现快速的汽车端的信息传输单链路故障恢复。
随着计算密集和时延敏感类应用的激增,移动边缘计算(MEC)被提出应用在网络边缘为用户提供计算服务。针对基站(BS)端边缘服务器计算资源有限以及网络边缘用户远距离计算卸载的时延较长等问题,提出了基于终端直通(D2D)通信的多用户计算卸载资源优化决策,将D2D融入MEC网络使用户以D2D方式直接卸载任务到相邻用户处执行,从而能够进一步降低卸载时延和能耗。首先,以最小化包括时延和能耗的系统计算总开销为优化目标,建模多用户计算卸载和多用户计算资源分配的联合优化问题;然后,将求解该问题看作是一个D2D配对过程,并提出基于稳定匹配的低复杂度的多用户计算卸载资源优化决策算法;最后,迭代求解D2D卸载的优化分配决策。通过理论证明分析了所提算法的稳定性、最优性和复杂度等特性。仿真结果表明,所提算法相较于随机匹配算法能够有效降低10%~33%的系统计算总开销,并且其性能非常接近最优的穷举搜索算法。可见,所提基于D2D卸载的决策有利于改善时延和能耗开销性能。
分层联邦学习中隐私安全与资源消耗等问题的存在降低了参与者的积极性。为鼓励足够多的参与者积极参与学习任务,并针对多移动设备与多边缘服务器之间的决策问题,提出基于多领导者Stackelberg博弈的激励机制。首先,通过量化移动设备的成本效用与边缘服务器的支付报酬,构建效用函数并定义最优化问题;其次,将移动设备之间的交互建模为演化博弈,将边缘服务器之间的交互建模为非合作博弈。为求解最优边缘服务器选择和定价策略,提出多轮迭代边缘服务器选择算法(MIES)和梯度迭代定价算法(GIPA),前者用于求解移动设备之间的演化博弈均衡解,后者用于求解边缘服务器之间的定价竞争问题。实验结果表明,所提算法GIPA与最优定价预测策略(OPPS)、历史最优定价策略(HOPS)和随机定价策略(RPS)相比,可使边缘服务器的平均效用分别提高4.06%、10.08%和31.39%。
针对工业无线传感器网络(IWSNs)中复杂链路环境、温度波动等造成的链路时延动态变化、时钟计时干扰、时间戳获取不确定等问题,提出一种基于精确时间协议(PTP)的IWSNs时间同步方法。首先,融合PTP双向时间同步过程的时钟计时干扰、非对称链路时延噪声,建立时钟状态空间模型和观测模型;其次,构建反向自适应卡尔曼滤波算法以滤除噪声干扰;然后,利用反向估计和正向估计的时钟状态归一化新息比值来评估噪声统计模型的合理性;最后,在设定检测阈值后,动态调整时钟状态过程噪声,以实现时钟参数的精确估计。仿真结果表明,相较于经典卡尔曼滤波算法和PTP,在不同时钟计时精度下,反向自适应卡尔曼滤波算法估计的时钟偏移和偏移率均有较小且更稳定的误差标准差,有效解决了噪声不确定等原因造成的卡尔曼滤波发散问题,提高了时间同步的可靠性。
针对传统多用户毫米波中继系统波束赋形方案计算复杂度高的问题,提出一种基于深度学习(DL)的奇异值分解(SVD)方法来设计混合波束赋形,以优化发送端、中继端和接收端波束赋形器。首先,利用DL方法设计发送端、中继端的波束赋形矩阵最大化可实现的频谱效率;然后,设计中继端、接收端的频带波束赋形矩阵以最大化等效信道增益;最后,在接收端设计最小均方误差(MMSE)滤波器消除用户间干扰。理论分析和仿真结果表明,基于DL的混合波束赋形方法相较于交替最大化(AltMax)与传统SVD 方法 在高维信道矩阵和较多的用户情况下,计算复杂度分别降低了12.5%和23.44%;在已知信道状态信息(CSI)的情况下,频谱效率分别提高了2.277%和21.335%,在非完美CSI情况下,频谱效率分别提高了11.452%和43.375%。
传统无线通信系统由发射机和接收机组成,待传输的信息经过信道编码、调制、成型后通过天线发射出去。由于信道衰落、噪声和干扰等因素的影响,到达接收机的信号会存在较严重的失真,接收机需要从失真的信号中尽可能地恢复出原始信息。为解决此问题,提出基于多标签分类神经网络的多输入多输出(MIMO)智能接收机模型。该模型利用深度神经网络(DNN)替代接收机从信号到信息之间的整个信息恢复环节,并采用多标签分类算法代替多个二分类器实现多个比特的信息流恢复,而训练数据集为包含二进制相移键控(BPSK)与正交相移键控(QPSK)两种调制方式以及汉明编码与循环编码两种方式的正交信号。实验结果表明在噪声、瑞利衰落、干扰等情况下,使用传统Alamouti译码方法的接收机误码率(BER)为1E-3时,智能接收机已经实现了BER为0的恢复信息;在保持BER性能相同时,所提多标签分类算法比对比模型的多个二分类器算法在每个批次的训练时间上减少了约4 min。
针对传统的链路预测在不同结构特征的网络中的计算结果不稳定的问题,提出了基于信息熵改进主成分分析(PCA)模型的链路预测算法。首先,用随机森林(RF)确定7个相似性指标作为最佳特征集合;然后,将七个相似性指标组合在一起提出基于信息熵改进PCA的特征信息融合模型,在对特征信息赋予权重后,把该模型与单机制算法结合后在6个真实数据集上验证其正确性以及校验效果;最后,通过与混合链路预测算法比较曲线下面积(AUC)值来验证基于所提模型的链路预测算法的可行性和有效性。实验结果表明,所提出的链路预测算法比有序加权平均算法(OWA)和集成模型链路预测算法(EMLP)在预测精度AUC值上分别提升了2.5~12.46个百分点和0.47~9.01个百分点,具有较好的稳定性和准确性。可见,将所提算法应用到不同结构特征的网络中能得到更稳定、更准确的链路预测结果。
针对交通监测传感网络时间同步拓扑的能量有效性和场景适应性问题,提出一种基于形式概念分析的交通监测传感网络贪婪性同步拓扑算法GST-FCA。首先分析交通监测传感网络同步拓扑的场景适应性需求和能量有效性问题模型;其次,利用形式概念分析(FCA)对同层和相邻层传感节点的邻接特征进行关联性解析,根据最多邻居贪婪策略构建广播元组(BT)并划分同步集合;然后利用回溯广播改进传感网络时间同步协议(TPSN)算法的层探测广播策略,同时设计向上托管机制,增大已同步节点信息的共享范围,进一步缓解贪婪策略产生的局部最优解问题;最后对GST-FCA的能量有效性和场景适应性进行测试。仿真结果表明,相较于TPSN、LECFO等算法,GST-FCA在部署位置、部署规模、道路部署三个测试场景中的同步报文开销分别至少降低11.54%、24.59%和39.16%。由此可见,GST-FCA能缓解局部最优解问题并降低同步报文开销,而且能在同步拓扑满足上述三个场景适应性需求下达到良好的能量有效性。
为满足5G网络环境下高可靠性、低时延的要求,同时降低网络带宽资源消耗,面向流量与可靠性优化提出一种基于节点综合重要度排序的服务功能链(SFC)部署方法。首先,基于流量改变率聚合虚拟网络功能(VNF),从而减少部署的物理节点,提高链路可靠性;其次,通过节点的度、可靠性、综合时延与链路跳数定义节点综合重要度,并依据该重要度对物理节点排序;然后,将VNF依次映射到底层物理节点上,同时通过约束链路条数以减少“乒乓效应”并优化流量;最后,通过k-最短路径算法映射虚拟链路,从而完成整个SFC的部署。相较于原有聚合方法,所提方法的SFC平均可靠性提升2%,SFC端到端平均时延降低22%,平均带宽开销降低29%,长期平均收益开销比提高16%。实验结果表明,所提方法能有效提高链路的可靠性,降低端到端的时延与带宽资源消耗,起到了良好的优化效果。
针对已有传染病传播模型没有考虑到具体的特殊网络结构与资源因素对控制疫情爆发的影响与作用机制,结合双层星型耦合网络与传染病SIS模型,建立了一个离散动态传播模型。该模型利用星型网络的结构特性与平均度概念推导各层感染人口比例关于资源及各种参数的离散方程。理论分析和仿真实验结果表明,多层星型耦合传染病传播网络中存在资源阈值,当节点为叶子节点时,网络存在两个资源阈值,增加资源量投入以抑制传染病传播只在两个资源阈值间有效,此时传染病感染人口比例随着投入资源的增加而减少;当节点为中心节点时,网络中的资源阈值随其他层感染人口比例的增大由两个减少至一个。此外,层间中心节点耦合强度、层间叶子节点耦合强度对疫情的控制效果随着节点所处位置的不同而不同。
针对下行的异构认知超密集异构网络(UDN)的多维资源配置问题,提出一种以毫微微小区用户最大吞吐量为目标的联合优化用户关联和资源分配的改进遗传算法。首先,在算法开始之前进行预处理,初始化用户可达基站和可用信道矩阵;其次,采用符号编码,将用户与基站以及用户与信道的匹配关系编码为一个二维的染色体;然后,将动态择优复制+轮盘赌作为选择算法,以加快种群的收敛;最后,为避免算法陷入局部最优,在变异阶段加入早熟判决的变异算子,从而在有限次迭代下求得基站、用户、信道的连接策略。实验结果表明,在基站与信道数量一定时,所提算法与三维匹配的遗传算法相比在用户总吞吐量方面提高了7.2%,在认知用户吞吐量方面提高了1.2%,且计算复杂度更低。所提算法缩小了可行解的搜索空间,能在较低复杂度下有效提高认知UDN的总吞吐量。
可变长地址是未来网络领域的重要研究内容之一。针对传统路由查找算法在面向可变长地址时查找效率低的问题,提出一种基于平衡二叉树AVL(Adelson-Velskii and Landis)树和Bloom过滤器的适用于可变长地址的高效路由查找算法,简称为AVL-Bloom算法。首先,针对可变长地址灵活可变且无界的特点,利用多个片外哈希表分别存储前缀比特位数相同的路由条目及其下一跳信息,同时应用片上Bloom过滤器加速搜索可能匹配的路由前缀;其次,为了解决基于哈希技术的路由查找算法在查找最长前缀路由时需多次哈希对比的问题,引入AVL树技术,即通过AVL树组织每组路由前缀集合的Bloom过滤器及其哈希表,优化路由前缀长度的查询顺序,并减少哈希计算次数进而降低查询时间;最后,在3种不同的可变长地址数据集上将所提算法与METrie(Multi-Entrance-Trie)和COBF(Controlled prefix and One-hashing Bloom Filter)这两种传统路由查找算法进行对比实验。实验结果表明,AVL-Bloom算法的查询时间明显少于METrie和COBF算法,分别减少了将近83%和64%;同时,AVL-Bloom算法在路由表项数变化较大的情况下也能维持稳定的查找性能,适用于可变长地址的路由查找转发。
针对中继协作通信在发射机和接收机之间的直接路径信号较弱,且信噪比(SNR)低的场景,提出一种智能反射面(RIS)辅助解码转发(DF)中继的协作索引调制(IM)系统(RIS-DF-IM)。在该系统中,RIS作为智能接入点(AP)充当源节点和中继节点发射机的一部分,根据发射信息对反射信道进行相位补偿,最大化接收天线的SNR,并对中继和目的节点接收机的多天线进行索引调制,提高系统的频谱效率;同时,利用矩母函数(MGF)法求解所提出的双跳系统误码率(BER)的理论联合界。此外,还提出了一种预贪婪的最大似然简化(SPML)检测器,通过预贪婪减少遍历天线索引数量,以及简化最大似然译码准则式,降低计算复杂度。蒙特卡洛仿真结果表明,在RIS元件数取128且采用空间调制时,RIS-DF-IM与RIS在远端不接入发射机的协作空间调制系统相比,BER降低了约10;与传统的预编码空间调制系统相比,BER大幅降低,约20;SPML检测器相较于最大似然(ML)检测器,BER增加了约1.4,但是计算复杂度减少了一半,实现了BER与复杂度之间的有效平衡。
针对噪声导致非线性数字通信系统传输信号的差错概率增加的问题,提出一种基于离散双向联想记忆(BAM)神经网络的多元通信系统。首先,根据需要传输的信号,选取适当的神经元数量和记忆向量,计算权值矩阵,并生成BAM神经网络;然后将多元信号映射为具有调制幅度的初始输入向量并不断输入系统,通过神经网络进行循环迭代,并向各神经元添加高斯噪声,之后按照码元间隔采样输出并在无损信道中传输,接收端依据判决规则译码判决;最后在图像处理领域,利用所提系统传输图像压缩后的数据并解码恢复图像。仿真结果表明,对于码元间隔较大的弱调制信号,随着噪声强度的增加,差错概率先减后增,随机共振现象比较明显;差错概率还与信号的进制数呈正相关关系,与信号幅度、码元间隔和神经元个数呈负相关关系,某些条件下,差错概率可以达到0。以上结果表明BAM神经网络可以通过噪声改善数字通信系统的可靠性。另外,解码恢复图像的相似度显示了适量噪声对图像恢复效果的改善,扩展了BAM神经网络和随机共振在图像压缩编码中的应用。
针对无人机(UAV)在图像识别时易受环境干扰,而传统信号识别难以准确提取特征且实时性较差的问题,提出一种基于改进卷积神经网络(CNN)和射频(RF)指纹的无人机检测识别方法。首先,使用通用软件无线电外设(USRP)捕获环境中的无线电信号,经过多分辨率分析获取偏差值,检测是否为无人机射频信号;其次,将检测到的无人机射频信号经过小波变换和主成分分析(PCA)处理,获得射频信号频谱,作为神经网络的输入;最后,构建轻量级残差神经网络(LRCNN),输入射频频谱进行网络训练,进行无人机的分类识别。实验结果表明,所提方法可以有效检测并识别无人机信号,平均识别精度可达84%;在信噪比(SNR)大于20 dB时,LRCNN的识别精度达到了88%,相较于支持向量机(SVM)、原始OracleCNN分别提高31和7个百分点,在识别精度和鲁棒性方面比这两种方法均有所提升。
针对信息传输过程的时间消耗和信道估计误差对网络能效的影响,提出了一种基于非线性能量收集的全双工认知中继网络的联合优化方法。所提方法是在中继采用非线性能量收集并考虑非完美信道状态信息(CSI)的情况下,首先通过将能效非凸优化问题转化为两个凸的子优化问题,从而求出次用户和中继的传输功率以及收集的能量;其次,在保证主用户干扰门限以及最优传输功率非负的情况下,求出传输的信道容量范围;最后,将传输功率代入表达式得到关于时间的目标函数,并利用海森矩阵证明该目标函数为凸函数,进而求出最优传输时间以及功率分割因子,最终得出能效最优解。实验结果表明,在相同条件下,所提联合优化方法的能效相较于仅优化传输功率的能效提升了约84.3%;同时验证了信道估计误差因子为0.01时,所提方法的网络能效降低了约1.9%。
LoRaWAN是低功耗广域网(LPWAN)中的一种无线通信标准,为物联网的发展提供了支撑。然而,受限于扩频因子(SF)间不完全正交性的特点和LoRaWAN不具备先听后发(LBT)机制的事实,基于ALOHA的传输调度方式会引发严重的信道冲突,极大降低了LoRa(Long Range Radio)网络的扩展性。为提高LoRa网络的扩展性,提出用非坚持型载波监听多路访问(NP-CSMA)机制替代LoRaWAN中ALOHA的介质访问控制机制,通过LBT协调LoRa网络中SF相同的各个节点接入信道的时间。不同SF之间的传输则采用多种SF信号并行传输,以减少共信道中同SF干扰和避免SF间干扰。为了分析NP-CSMA对LoRa网络扩展性的影响,通过理论分析和NS3仿真对LoRaWAN与NP-CSMA构建的LoRa网络进行比较。实验结果表明,在相同的条件下,与LoRaWAN相比,NP-CSMA在网络通信负载率为1的情况下,它的理论数据包交付率(PDR)性能比LoRaWAN高58.09%。在信道利用率方面,与LoRaWAN相比,NP-CSMA的饱和信道利用率提高了214.9%,容纳的节点数量也增加了60.0%。另外,NP-CSMA的平均时延在网络通信负载率小于1.7时也低于确认型LoRaWAN,而且在扩频因子为7和10时,它用于维持信道活动检测(CAD)模式所造成的额外能耗也比LoRaWAN用于接收来自网关确认消息所需的额外能耗低1.0~1.3 mJ和2.5~5.1 mJ;充分反映了NP-CSMA可以有效提高LoRa网络的可扩展性。
针对传统无线视频传感器网络(WVSN)目标栅栏因捕获图像宽度过小而导致的入侵检测失效问题,提出一个能确保捕获不小于β监测质量(β-QoM)的无线视频传感器网络β-QoM目标栅栏覆盖构建(WβTBC)算法。首先,建立视频传感器β-QoM区的几何模型,并证明了所有相邻视频传感器β-QoM区相交的目标栅栏捕获的入侵者图像宽度必大于等于β;然后,在对WVSN最优β-QoM目标栅栏覆盖建立线性规划模型的基础上,证明了它是一个NP-hard问题;最后,为了获得该问题的次优解,设计了一个启发式算法WβTBC。根据传感器间的逆时针β邻居关系建立WVSN的有向图,并采用Dijkstra算法在WVSN中搜索β-QoM目标栅栏。实验结果表明,WβTBC算法能有效构建β-QoM目标栅栏,且分别比螺旋外围外覆盖(SPOC)、螺旋外围内覆盖(SPIC)及目标栅栏构建(TBC)算法节省了23.3%、10.8%和14.8%的传感器节点。此外,在满足入侵检测要求的前提下,β值越小,WβTBC算法构建β-QoM目标栅栏的成功率越高,形成栅栏的节点越少,WVSN进行β-QoM入侵检测的工作周期越长。
新一代视频编码标准H.266/VVC(Versatile Video Coding)的码率控制算法采用编码参数相互独立的率失真优化技术。然而,同一帧内的编码树单元(CTU)间在空域上相互影响,且存在全局编码参数;同时,CTU级比特分配公式采用近似的编码参数分配比特,进而降低了码率控制精度和编码性能。针对上述问题,提出空域全局优化CTU级比特分配算法RTE_RC(Rate Control with Recursive Taylor Expansion),并通过递归算法逼近全局编码参数。首先,建立空域全局优化比特分配模型;其次,应用递归算法求解CTU级比特分配模型中的全局拉格朗日乘子;最后,优化编码单元的比特分配并对编码单位进行编码。实验结果表明,在低延时P(Prediction)帧(LDP)配置下,与码率控制算法VTM_RC相比,所提算法的码率控制误差由0.46%下降至0.02%,码率节省了2.48个百分点,编码时间下降了3.52%,显著提升了码率控制精度和率失真性能。
为优化解码转发(DF)全双工中继网络的能量效率(EE)与频谱效率(SE),提出一种DF全双工中继网络的EE和SE的均衡方法。在全双工中继网络中,首先,以提高网络的SE为目标来优化网络的EE,并结合求导和牛顿?拉弗森方法得到中继的最优功率,进而给出目标函数的帕累托最优集;然后,通过加权标量法引入均衡因子,构建一个EE和SE的折中优化函数,通过归一化将EE最优化和SE最优化这一多目标优化问题转化为单目标的能量?频谱效率的优化问题,并分析不同均衡因子下的EE、SE和折中优化的性能。仿真实验结果表明,相较于全双工?最优功率方法、半双工?最佳中继最优功率分配方法,所提方法的SE和EE在相同数据传输速率下更高;通过调整不同均衡因子,可以实现EE和SE的最优均衡与优化。
广义空移键控(GSSK)作为空间调制(SM)的一种简化形式,被广泛应用于大规模多输入多输出(MIMO)系统,以更好地解决传统MIMO技术中的信道间干扰(ICI)、天线间同步(IAS)和多射频(RF)链路等问题。针对GSSK系统最大似然(ML)检测算法计算复杂度高的问题,结合压缩感知(CS)中的子空间追踪(SP)算法和ML检测算法,并结合阈值的设置,提出一种基于CS理论的低复杂度GSSK信号检测算法。首先,用改进的SP算法获得部分发送天线组合(TAC);其次,删除部分天线组合,缩小搜索天线组合的集合;最后,利用ML算法和预设的门限估计发送天线组合。仿真实验结果表明,所提算法的计算复杂度明显低于ML检测算法,同时误比特率(BER)性能逼近ML检测算法,验证了所提算法的有效性。
边缘计算(EC)与无线携能通信(SWIPT)技术能够提升传统网络性能,但同时也增加了系统决策制定的难度和复杂度。而基于最优化方法所设计的系统决策往往具有较高的计算复杂度,无法满足系统的实时性需求。为此,针对EC与SWIPT辅助的无线传感网络(WSN),联合考虑网络中波束成形、计算卸载与功率控制问题,建立了系统能效最优化数学模型;其次,针对该模型的非凸与参数耦合特征,通过设计系统的信息交换过程,提出基于深度强化学习的联合优化方法,该方法无须建立环境模型,采用奖励函数代替Critic网络对动作进行评估,能降低决策制定难度并提升实时性;最后,基于该方法设计了改进的深度确定性策略梯度(IDDPG)算法,并与多种最优化算法和机器学习算法进行仿真对比,验证了联合优化方法在降低计算复杂度、提升决策实时性方面的优势。
针对基于p持续的移动自组网(MANET)信道接入和资源分配问题,提出一种具有低复杂度的自适应信道接入和资源分配算法。首先,考虑到自组网无中心分布式组网特点,以每个节点的信道利用率最大化为目标建立优化问题;其次将该问题建模为马尔可夫决策过程并定义状态、动作和奖励函数;最后基于策略梯度训练网络参数,联合优化竞争概率、优先级增长因子以及通信节点数量。仿真实验结果表明,所提算法可以显著提高p-持续载波侦听多址接入(CSMA)协议的性能,与固定竞争概率和p值预定义的方案相比,所提算法的信道利用率提高了45%和17%;此外,当节点数量小于35时,所提算法优于固定接入节点数量的方案。同时,在节点数据包到达率较高时,所提算法可以充分利用信道,减少时隙资源浪费。
移动通信系统网络的规划、部署和优化都不同程度依赖于参考信号接收功率(RSRP)估计的准确性。传统上,基站覆盖小区内某信号接收点的RSRP可由对应的无线传播模型估计。在城市环境中,不同小区的无线传播模型需要使用大量RSRP实测数据校正。由于不同小区环境存在差异,经过校正后的模型只适用于对应小区,且小区内的RSRP估计精度低。针对上述问题,将RSRP估计问题转化为图去噪问题,并通过图像处理与深度学习技术得到小区级无线传播模型,不仅能实现小区整体的RSRP估计,且能适用于相似环境小区。首先,通过随机森林回归器逐点预测每个接收点的RSRP,得到整个小区的RSRP估计图;然后,将RSRP估计图和实测RSRP分布图之间的损失视为RSRP噪声图,提出基于条件生成对抗网络(CGAN)的图去噪RSRP估计方法,通过电子环境地图反映小区的环境信息,有效地降低不同小区的RSRP。实验结果表明,在无实测数据的跨小区RSRP预测场景下,所提方法预测RSRP的均方根误差(RMSE)为6.77 dBm,相较于基于卷积神经网络的RSRP估计方法EFsNet下降2.55 dBm;在同小区RSRP预测场景下,相较于EFsNet,模型参数量减小80.3%。
针对现有的双局域网(LAN)太赫兹无线局域网(Dual-LAN THz WLAN)相关介质访问控制(MAC)协议中存在的某些节点会在多个超帧内重复发送相同的信道时隙请求帧以申请时隙资源以及网络运行的一些时段存在空闲时隙等问题,提出一种基于自发数据传输的高效MAC协议——SDTE-MAC(high-Efficiency MAC protocol based on Spontaneous Data Transmission)。SDTE-MAC通过让各节点都维护一张或多张时间单元链表,使各节点与其余节点在网络运行时间上达到同步,从而获悉各节点应该在信道空闲时隙的什么位置开始发送数据帧,优化了传统的信道时隙分配和信道剩余时隙再分配的流程,提高了网络吞吐量和信道时隙利用率,降低了数据时延,能够进一步提升双LAN太赫兹无线局域网的性能。仿真结果表明,网络饱和时,相较于AHT-MAC(Adaptive High Throughout multi-pan MAC protocol)中的N-CTAP(Normal Channel Time Allocation Period)时段时隙资源分配新机制以及自适应缩短超帧时段机制,SDTE-MAC的MAC层吞吐量提升了9.2%,信道时隙利用率提升了10.9%,数据时延降低了22.2%。
用于智能路锥自组网(IRCAN)的现有多跳分簇路由协议存在组网控制开销有冗余、数据分组传输平均跳数未保证最小的问题。为解决上述问题,结合网络链状拓扑特点,提出一种基于非随机后倾成簇的高效分簇路由协议RCHR(Retroverted-Clustering-based Hierarchy Routing)。首先,提出基于中心扩展的后倾成簇机制和基于泛听跨层和扩展邻接矩阵的簇首选择算法;其次,采用所提机制和算法,以sink节点为中心依次生成具有后倾特点的簇,在不借助额外条件的情况下为sink节点选择分列两端的最优簇首节点,既减少组网过程的开销和用时,又能够形成有利于降低数据分组传输平均跳数的网络拓扑。理论分析验证了所提协议的有效性,仿真实验结果表明,与现有多跳分簇路由协议基于分环多跳的分簇路由(RBMC)和改进型低功耗自适应集簇分层型协议(MOD-LEACH)相比,所提协议的组网控制开销和数据分组传输平均跳数分别至少降低了32.7%和2.6%。