广义空移键控(GSSK)作为空间调制(SM)的一种简化形式,被广泛应用于大规模多输入多输出(MIMO)系统,以更好地解决传统MIMO技术中的信道间干扰(ICI)、天线间同步(IAS)和多射频(RF)链路等问题。针对GSSK系统最大似然(ML)检测算法计算复杂度高的问题,结合压缩感知(CS)中的子空间追踪(SP)算法和ML检测算法,并结合阈值的设置,提出一种基于CS理论的低复杂度GSSK信号检测算法。首先,用改进的SP算法获得部分发送天线组合(TAC);其次,删除部分天线组合,缩小搜索天线组合的集合;最后,利用ML算法和预设的门限估计发送天线组合。仿真实验结果表明,所提算法的计算复杂度明显低于ML检测算法,同时误比特率(BER)性能逼近ML检测算法,验证了所提算法的有效性。
在被动窃听的多径信道场景下,窃听者(EaVEsdropper,Eve)仅被动窃听,不发射任何无线电信号,发射端(Alice)无法确定Eve的任何信息,给信息的安全传输带来了极大挑战。为了保障信息的安全传输,在Alice已知合法接收者(Bob)的信道状态信息(CSI)但是未知Eve的CSI的情况下,提出一种保障Bob的物理层安全的预编码方案,通过提高Bob接收信号的质量来提高系统的安全性能。首先,在不考虑Eve的情况下,仅根据已知的Bob的CSI给出可达Bob信道容量上界的预编码方案;利用Alice-Bob和Alice-Eve链路之间的信道特异性获得稳定的安全容量;然后,在瑞利平坦衰落环境下,通过Bob的中断概率推导出Bob的平均误码率(BER)准确的闭合表达式。仿真实验结果表明,所提方案在不改变接收机复杂度的基础上,能够保证Bob的信道容量始终优于Eve的信道容量。同时,所提方案能够在Eve的BER性能受到较大抑制的条件下,有效改善Bob的BER性能,即使Eve位置条件优于Bob也能保证安全容量始终存在。
针对传统无线视频传感器网络(WVSN)目标栅栏因捕获图像宽度过小而导致的入侵检测失效问题,提出一个能确保捕获不小于β监测质量(β-QoM)的无线视频传感器网络β-QoM目标栅栏覆盖构建(WβTBC)算法。首先,建立视频传感器β-QoM区的几何模型,并证明了所有相邻视频传感器β-QoM区相交的目标栅栏捕获的入侵者图像宽度必大于等于β;然后,在对WVSN最优β-QoM目标栅栏覆盖建立线性规划模型的基础上,证明了它是一个NP-hard问题;最后,为了获得该问题的次优解,设计了一个启发式算法WβTBC。根据传感器间的逆时针β邻居关系建立WVSN的有向图,并采用Dijkstra算法在WVSN中搜索β-QoM目标栅栏。实验结果表明,WβTBC算法能有效构建β-QoM目标栅栏,且分别比螺旋外围外覆盖(SPOC)、螺旋外围内覆盖(SPIC)及目标栅栏构建(TBC)算法节省了23.3%、10.8%和14.8%的传感器节点。此外,在满足入侵检测要求的前提下,β值越小,WβTBC算法构建β-QoM目标栅栏的成功率越高,形成栅栏的节点越少,WVSN进行β-QoM入侵检测的工作周期越长。
无线通信网络流量预测对运营商建设网络、管理基站无线资源和提升用户体验具有重要意义。然而,现有的集中式算法模型面临着复杂性和时效性问题,难以满足城市全域尺度的通信流量预测需求。因此,提出一个分布式的云边协同下的无线通信流量预测框架,以较低的复杂度和通信开销实现基于单栅格基站的流量预测。在分布式架构的基础上,提出了基于联邦学习的无线通信流量预测模型。各个栅格流量预测模型同步训练,通过中心云服务器利用JS(Jensen-Shannon)散度挑选出流量分布相似的栅格流量模型,并采用联邦平均(FedAvg)算法融合具有相似流量分布的栅格流量模型的参数,从而在提高模型泛化性的同时达到保持对本地流量精准刻画的目的。此外,由于城市范围内不同地区流量具有高度差异化的特征,在FedAvg的基础上,提出了基于合作博弈的联邦训练方法,将栅格作为合作博弈的参与者,结合超可加性准则筛选栅格,并引入合作博弈的核和夏普利值分配收益以确保联盟的稳定性,提高模型预测的准确性。实验结果表明,以短消息业务(SMS)流量为例,与栅格独立式训练相比,所提模型的预测误差下降在郊区最为明显,下降范围在26.1%~28.7%,在市区下降范围在0.7%~3.4%,在市中心下降范围在0.8%~4.7%;与栅格集中式训练相比,3个区域的模型预测误差下降范围在49.8%~79.1%。
边缘计算(EC)与无线携能通信(SWIPT)技术能够提升传统网络性能,但同时也增加了系统决策制定的难度和复杂度。而基于最优化方法所设计的系统决策往往具有较高的计算复杂度,无法满足系统的实时性需求。为此,针对EC与SWIPT辅助的无线传感网络(WSN),联合考虑网络中波束成形、计算卸载与功率控制问题,建立了系统能效最优化数学模型;其次,针对该模型的非凸与参数耦合特征,通过设计系统的信息交换过程,提出基于深度强化学习的联合优化方法,该方法无须建立环境模型,采用奖励函数代替Critic网络对动作进行评估,能降低决策制定难度并提升实时性;最后,基于该方法设计了改进的深度确定性策略梯度(IDDPG)算法,并与多种最优化算法和机器学习算法进行仿真对比,验证了联合优化方法在降低计算复杂度、提升决策实时性方面的优势。
分层联邦学习中隐私安全与资源消耗等问题的存在降低了参与者的积极性。为鼓励足够多的参与者积极参与学习任务,并针对多移动设备与多边缘服务器之间的决策问题,提出基于多领导者Stackelberg博弈的激励机制。首先,通过量化移动设备的成本效用与边缘服务器的支付报酬,构建效用函数并定义最优化问题;其次,将移动设备之间的交互建模为演化博弈,将边缘服务器之间的交互建模为非合作博弈。为求解最优边缘服务器选择和定价策略,提出多轮迭代边缘服务器选择算法(MIES)和梯度迭代定价算法(GIPA),前者用于求解移动设备之间的演化博弈均衡解,后者用于求解边缘服务器之间的定价竞争问题。实验结果表明,所提算法GIPA与最优定价预测策略(OPPS)、历史最优定价策略(HOPS)和随机定价策略(RPS)相比,可使边缘服务器的平均效用分别提高4.06%、10.08%和31.39%。
为优化解码转发(DF)全双工中继网络的能量效率(EE)与频谱效率(SE),提出一种DF全双工中继网络的EE和SE的均衡方法。在全双工中继网络中,首先,以提高网络的SE为目标来优化网络的EE,并结合求导和牛顿?拉弗森方法得到中继的最优功率,进而给出目标函数的帕累托最优集;然后,通过加权标量法引入均衡因子,构建一个EE和SE的折中优化函数,通过归一化将EE最优化和SE最优化这一多目标优化问题转化为单目标的能量?频谱效率的优化问题,并分析不同均衡因子下的EE、SE和折中优化的性能。仿真实验结果表明,相较于全双工?最优功率方法、半双工?最佳中继最优功率分配方法,所提方法的SE和EE在相同数据传输速率下更高;通过调整不同均衡因子,可以实现EE和SE的最优均衡与优化。
针对中继协作通信在发射机和接收机之间的直接路径信号较弱,且信噪比(SNR)低的场景,提出一种智能反射面(RIS)辅助解码转发(DF)中继的协作索引调制(IM)系统(RIS-DF-IM)。在该系统中,RIS作为智能接入点(AP)充当源节点和中继节点发射机的一部分,根据发射信息对反射信道进行相位补偿,最大化接收天线的SNR,并对中继和目的节点接收机的多天线进行索引调制,提高系统的频谱效率;同时,利用矩母函数(MGF)法求解所提出的双跳系统误码率(BER)的理论联合界。此外,还提出了一种预贪婪的最大似然简化(SPML)检测器,通过预贪婪减少遍历天线索引数量,以及简化最大似然译码准则式,降低计算复杂度。蒙特卡洛仿真结果表明,在RIS元件数取128且采用空间调制时,RIS-DF-IM与RIS在远端不接入发射机的协作空间调制系统相比,BER降低了约10;与传统的预编码空间调制系统相比,BER大幅降低,约20;SPML检测器相较于最大似然(ML)检测器,BER增加了约1.4,但是计算复杂度减少了一半,实现了BER与复杂度之间的有效平衡。
可变长地址是未来网络领域的重要研究内容之一。针对传统路由查找算法在面向可变长地址时查找效率低的问题,提出一种基于平衡二叉树AVL(Adelson-Velskii and Landis)树和Bloom过滤器的适用于可变长地址的高效路由查找算法,简称为AVL-Bloom算法。首先,针对可变长地址灵活可变且无界的特点,利用多个片外哈希表分别存储前缀比特位数相同的路由条目及其下一跳信息,同时应用片上Bloom过滤器加速搜索可能匹配的路由前缀;其次,为了解决基于哈希技术的路由查找算法在查找最长前缀路由时需多次哈希对比的问题,引入AVL树技术,即通过AVL树组织每组路由前缀集合的Bloom过滤器及其哈希表,优化路由前缀长度的查询顺序,并减少哈希计算次数进而降低查询时间;最后,在3种不同的可变长地址数据集上将所提算法与METrie(Multi-Entrance-Trie)和COBF(Controlled prefix and One-hashing Bloom Filter)这两种传统路由查找算法进行对比实验。实验结果表明,AVL-Bloom算法的查询时间明显少于METrie和COBF算法,分别减少了将近83%和64%;同时,AVL-Bloom算法在路由表项数变化较大的情况下也能维持稳定的查找性能,适用于可变长地址的路由查找转发。
新一代视频编码标准H.266/VVC(Versatile Video Coding)的码率控制算法采用编码参数相互独立的率失真优化技术。然而,同一帧内的编码树单元(CTU)间在空域上相互影响,且存在全局编码参数;同时,CTU级比特分配公式采用近似的编码参数分配比特,进而降低了码率控制精度和编码性能。针对上述问题,提出空域全局优化CTU级比特分配算法RTE_RC(Rate Control with Recursive Taylor Expansion),并通过递归算法逼近全局编码参数。首先,建立空域全局优化比特分配模型;其次,应用递归算法求解CTU级比特分配模型中的全局拉格朗日乘子;最后,优化编码单元的比特分配并对编码单位进行编码。实验结果表明,在低延时P(Prediction)帧(LDP)配置下,与码率控制算法VTM_RC相比,所提算法的码率控制误差由0.46%下降至0.02%,码率节省了2.48个百分点,编码时间下降了3.52%,显著提升了码率控制精度和率失真性能。
针对传统多用户毫米波中继系统波束赋形方案计算复杂度高的问题,提出一种基于深度学习(DL)的奇异值分解(SVD)方法来设计混合波束赋形,以优化发送端、中继端和接收端波束赋形器。首先,利用DL方法设计发送端、中继端的波束赋形矩阵最大化可实现的频谱效率;然后,设计中继端、接收端的频带波束赋形矩阵以最大化等效信道增益;最后,在接收端设计最小均方误差(MMSE)滤波器消除用户间干扰。理论分析和仿真结果表明,基于DL的混合波束赋形方法相较于交替最大化(AltMax)与传统SVD 方法 在高维信道矩阵和较多的用户情况下,计算复杂度分别降低了12.5%和23.44%;在已知信道状态信息(CSI)的情况下,频谱效率分别提高了2.277%和21.335%,在非完美CSI情况下,频谱效率分别提高了11.452%和43.375%。
LoRaWAN是低功耗广域网(LPWAN)中的一种无线通信标准,为物联网的发展提供了支撑。然而,受限于扩频因子(SF)间不完全正交性的特点和LoRaWAN不具备先听后发(LBT)机制的事实,基于ALOHA的传输调度方式会引发严重的信道冲突,极大降低了LoRa(Long Range Radio)网络的扩展性。为提高LoRa网络的扩展性,提出用非坚持型载波监听多路访问(NP-CSMA)机制替代LoRaWAN中ALOHA的介质访问控制机制,通过LBT协调LoRa网络中SF相同的各个节点接入信道的时间。不同SF之间的传输则采用多种SF信号并行传输,以减少共信道中同SF干扰和避免SF间干扰。为了分析NP-CSMA对LoRa网络扩展性的影响,通过理论分析和NS3仿真对LoRaWAN与NP-CSMA构建的LoRa网络进行比较。实验结果表明,在相同的条件下,与LoRaWAN相比,NP-CSMA在网络通信负载率为1的情况下,它的理论数据包交付率(PDR)性能比LoRaWAN高58.09%。在信道利用率方面,与LoRaWAN相比,NP-CSMA的饱和信道利用率提高了214.9%,容纳的节点数量也增加了60.0%。另外,NP-CSMA的平均时延在网络通信负载率小于1.7时也低于确认型LoRaWAN,而且在扩频因子为7和10时,它用于维持信道活动检测(CAD)模式所造成的额外能耗也比LoRaWAN用于接收来自网关确认消息所需的额外能耗低1.0~1.3 mJ和2.5~5.1 mJ;充分反映了NP-CSMA可以有效提高LoRa网络的可扩展性。
针对可重构智能超表面(RIS)辅助无线通信系统中使用传统信道估计方法导频开销过高的问题,提出了一种基于块稀疏的正交匹配追踪(OMP)信道估计方案。首先,根据毫米波(mmWave)信道模型推导出级联信道矩阵,并将其转换到虚拟角域(VAD)中以获得级联信道的稀疏表示;其次,利用级联信道特有的稀疏特性将信道估计问题转换成稀疏矩阵恢复问题,并使用压缩感知的重构算法进行稀疏矩阵的恢复;最后,通过分析特殊的行-块稀疏结构,对传统的OMP方案进行优化,从而进一步减少导频开销并提升估计性能。仿真结果表明,与传统的OMP方案相比,所提出的基于行-块稀疏结构的优化OMP方案的归一化均方误差(NMSE)减小了大约1 dB。可见,所提出的信道估计方案能够有效减少导频开销并获得更好的估计性能。
针对工业无线传感器网络(IWSNs)中复杂链路环境、温度波动等造成的链路时延动态变化、时钟计时干扰、时间戳获取不确定等问题,提出一种基于精确时间协议(PTP)的IWSNs时间同步方法。首先,融合PTP双向时间同步过程的时钟计时干扰、非对称链路时延噪声,建立时钟状态空间模型和观测模型;其次,构建反向自适应卡尔曼滤波算法以滤除噪声干扰;然后,利用反向估计和正向估计的时钟状态归一化新息比值来评估噪声统计模型的合理性;最后,在设定检测阈值后,动态调整时钟状态过程噪声,以实现时钟参数的精确估计。仿真结果表明,相较于经典卡尔曼滤波算法和PTP,在不同时钟计时精度下,反向自适应卡尔曼滤波算法估计的时钟偏移和偏移率均有较小且更稳定的误差标准差,有效解决了噪声不确定等原因造成的卡尔曼滤波发散问题,提高了时间同步的可靠性。
为满足5G网络环境下高可靠性、低时延的要求,同时降低网络带宽资源消耗,面向流量与可靠性优化提出一种基于节点综合重要度排序的服务功能链(SFC)部署方法。首先,基于流量改变率聚合虚拟网络功能(VNF),从而减少部署的物理节点,提高链路可靠性;其次,通过节点的度、可靠性、综合时延与链路跳数定义节点综合重要度,并依据该重要度对物理节点排序;然后,将VNF依次映射到底层物理节点上,同时通过约束链路条数以减少“乒乓效应”并优化流量;最后,通过k-最短路径算法映射虚拟链路,从而完成整个SFC的部署。相较于原有聚合方法,所提方法的SFC平均可靠性提升2%,SFC端到端平均时延降低22%,平均带宽开销降低29%,长期平均收益开销比提高16%。实验结果表明,所提方法能有效提高链路的可靠性,降低端到端的时延与带宽资源消耗,起到了良好的优化效果。
针对交通监测传感网络时间同步拓扑的能量有效性和场景适应性问题,提出一种基于形式概念分析的交通监测传感网络贪婪性同步拓扑算法GST-FCA。首先分析交通监测传感网络同步拓扑的场景适应性需求和能量有效性问题模型;其次,利用形式概念分析(FCA)对同层和相邻层传感节点的邻接特征进行关联性解析,根据最多邻居贪婪策略构建广播元组(BT)并划分同步集合;然后利用回溯广播改进传感网络时间同步协议(TPSN)算法的层探测广播策略,同时设计向上托管机制,增大已同步节点信息的共享范围,进一步缓解贪婪策略产生的局部最优解问题;最后对GST-FCA的能量有效性和场景适应性进行测试。仿真结果表明,相较于TPSN、LECFO等算法,GST-FCA在部署位置、部署规模、道路部署三个测试场景中的同步报文开销分别至少降低11.54%、24.59%和39.16%。由此可见,GST-FCA能缓解局部最优解问题并降低同步报文开销,而且能在同步拓扑满足上述三个场景适应性需求下达到良好的能量有效性。
随着区块链技术的不断发展,区块的传输延迟成为区块链系统可扩展性的性能瓶颈。远程直接内存访问(RDMA)技术能够支持高带宽和低时延的数据传输,为低延迟区块传输提供了新的思路。因此,结合RDMA原语的特性,设计了用于区块信息共享的区块目录结构,并在此基础上设计并实现了区块传输的基本工作过程。实验结果表明,相较于基于TCP的方案,在1 MB大小的区块上基于RDMA的区块传输机制将节点间的区块传输延迟降低了44%,全网络的区块传输延迟降低了24.4%,在10 000节点规模的区块链上,区块链发生临时分叉的数量降低了22.6%。可见,基于RDMA的区块传输机制充分发挥了高速网络的性能优势,降低了区块传输延迟及临时分叉的数量,提高了现有区块链系统的可扩展性。
针对软件定义车联网(SDIV)的车-路实时查询类通信场景中单链路故障的问题,提出一种面向SDIV的链路故障快速恢复方法,综合考虑了链路恢复过程时延和恢复后路径的传输时延。首先,对故障恢复时延建模,将最小化时延的优化目标转化为0-1整数线性规划问题。然后,分析该问题,力图最大化复用已有计算结果,并根据不同情况提出两种算法:在流表更新时延相对路径传输延迟不可被忽略的情况下,提出基于拓扑划分的路径恢复算法(PRA-TP);在流表更新时延相对路径传输延迟较小可被忽略的情况下,提出基于单链路搜索的路径恢复算法(PRA-SLS)。实验结果表明,相较于Dijkstra算法,PRA-TP的计算时延和路径恢复时延分别降低25%和40%,PRA-SLS的计算时延降低60%,可实现快速的汽车端的信息传输单链路故障恢复。
针对噪声导致非线性数字通信系统传输信号的差错概率增加的问题,提出一种基于离散双向联想记忆(BAM)神经网络的多元通信系统。首先,根据需要传输的信号,选取适当的神经元数量和记忆向量,计算权值矩阵,并生成BAM神经网络;然后将多元信号映射为具有调制幅度的初始输入向量并不断输入系统,通过神经网络进行循环迭代,并向各神经元添加高斯噪声,之后按照码元间隔采样输出并在无损信道中传输,接收端依据判决规则译码判决;最后在图像处理领域,利用所提系统传输图像压缩后的数据并解码恢复图像。仿真结果表明,对于码元间隔较大的弱调制信号,随着噪声强度的增加,差错概率先减后增,随机共振现象比较明显;差错概率还与信号的进制数呈正相关关系,与信号幅度、码元间隔和神经元个数呈负相关关系,某些条件下,差错概率可以达到0。以上结果表明BAM神经网络可以通过噪声改善数字通信系统的可靠性。另外,解码恢复图像的相似度显示了适量噪声对图像恢复效果的改善,扩展了BAM神经网络和随机共振在图像压缩编码中的应用。
针对数据中心网络的传统流量调度方法容易引起网络拥塞及链路负载不均衡等问题,提出了一种差分进化(DE)融合蚁群(ACO)算法(DE-ACO)的动态流量调度机制,对数据中心网络中的大象流调度进行优化。首先,利用软件定义网络(SDN)技术捕获实时网络状态信息并设定流量调度的优化目标;然后,通过优化目标重定义DE算法,计算出多条可用候选路径,作为ACO算法的初始化全局信息素;最后,结合全局网络状态以求得全局最优路径,并重新路由拥堵链路上的大象流。实验结果表明,以在随机通信模式下为例,与等价多路径路由(ECMP)算法和基于蚁群算法的SDN数据中心网络流量调度(ACO-SDN)算法相比,所提算法的平均对分带宽分别提高了29.42%~36.26%和5%~11.51%,降低了网络的最大链路利用率(MLU),较好地实现了网络负载均衡。
针对下行的异构认知超密集异构网络(UDN)的多维资源配置问题,提出一种以毫微微小区用户最大吞吐量为目标的联合优化用户关联和资源分配的改进遗传算法。首先,在算法开始之前进行预处理,初始化用户可达基站和可用信道矩阵;其次,采用符号编码,将用户与基站以及用户与信道的匹配关系编码为一个二维的染色体;然后,将动态择优复制+轮盘赌作为选择算法,以加快种群的收敛;最后,为避免算法陷入局部最优,在变异阶段加入早熟判决的变异算子,从而在有限次迭代下求得基站、用户、信道的连接策略。实验结果表明,在基站与信道数量一定时,所提算法与三维匹配的遗传算法相比在用户总吞吐量方面提高了7.2%,在认知用户吞吐量方面提高了1.2%,且计算复杂度更低。所提算法缩小了可行解的搜索空间,能在较低复杂度下有效提高认知UDN的总吞吐量。