《计算机应用》唯一官方网站 ›› 2022, Vol. 42 ›› Issue (8): 2440-2449.DOI: 10.11772/j.issn.1001-9081.2021060905
所属专题: 人工智能
收稿日期:2021-06-01
									
				
											修回日期:2021-08-31
									
				
											接受日期:2021-09-14
									
				
											发布日期:2022-08-09
									
				
											出版日期:2022-08-10
									
				
			通讯作者:
					邵思羽
							作者简介:张剑(1997—),男,四川西昌人,硕士研究生,主要研究方向:深度学习、旋转机械故障诊断;基金资助:
        
                                                                                                            Jian ZHANG1, Peiyuan CHENG2, Siyu SHAO2( )
)
			  
			
			
			
                
        
    
Received:2021-06-01
									
				
											Revised:2021-08-31
									
				
											Accepted:2021-09-14
									
				
											Online:2022-08-09
									
				
											Published:2022-08-10
									
			Contact:
					Siyu SHAO   
							About author:ZHANG Jian, born in 1997, M. S. candidate. His research interests include deep learning, rotary machine fault diagnosis.Supported by:摘要:
针对旋转机械传感器信号样本有限影响深层网络模型训练学习的问题,提出一种结合改进残差卷积自编码网络与类自适应方法的故障诊断模型应对小样本数据。首先将少量已标记的源域数据和目标域数据创建为成对样本,并设计一种改进的一维残差卷积自编码网络对两种不同分布的原始振动信号进行特征提取;其次,利用最大均值差异(MMD)减小分布差异,并将两个域同一故障类别的数据空间映射到一个共同的特征空间,最终实现准确的故障诊断。实验结果表明,与微调、域自适应等方法相比,所提模型能够有效提高不同工况、微量已标记的目标域振动数据下的故障诊断准确率。
中图分类号:
张剑, 程培源, 邵思羽. 基于改进残差卷积自编码网络的类自适应旋转机械故障诊断[J]. 计算机应用, 2022, 42(8): 2440-2449.
Jian ZHANG, Peiyuan CHENG, Siyu SHAO. Rotary machine fault diagnosis based on improved residual convolutional auto-encoding network and class adaptation[J]. Journal of Computer Applications, 2022, 42(8): 2440-2449.
| 网络层 | 参数 | 激活函数 | 输出尺寸 | 
|---|---|---|---|
| 输入 | — | — | (1 024,1) | 
| 卷积 | f=64, k=16, s=1 | SeLU | (1 024,64) | 
| 最大池化 | p=8, s=8 | — | (128,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) | 
| 最大池化 | p=2, s=2 | — | (64,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) | 
| 最大池化 | p=2, s=2 | — | (32,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) | 
| 最大池化 | p=2, s=2 | — | (16,64) | 
| 上采样 | s=2 | — | (32,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) | 
| 上采样 | s=2 | — | (64,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) | 
| 上采样 | s=2 | — | (128,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) | 
| 上采样 | s=8 | — | (1 024,64) | 
| 卷积 | f=1, k=16, s=1 | SeLU | (1 024,1) | 
表1 模型参数信息1
Tab. 1 Model parameter information 1
| 网络层 | 参数 | 激活函数 | 输出尺寸 | 
|---|---|---|---|
| 输入 | — | — | (1 024,1) | 
| 卷积 | f=64, k=16, s=1 | SeLU | (1 024,64) | 
| 最大池化 | p=8, s=8 | — | (128,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) | 
| 最大池化 | p=2, s=2 | — | (64,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) | 
| 最大池化 | p=2, s=2 | — | (32,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) | 
| 最大池化 | p=2, s=2 | — | (16,64) | 
| 上采样 | s=2 | — | (32,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) | 
| 上采样 | s=2 | — | (64,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) | 
| 上采样 | s=2 | — | (128,64) | 
| 残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) | 
| 上采样 | s=8 | — | (1 024,64) | 
| 卷积 | f=1, k=16, s=1 | SeLU | (1 024,1) | 
| 网络层 | 参数 | 激活函数 | 输出尺寸 | 
|---|---|---|---|
| 编码器 | — | — | (16,64) | 
| 自注意力机制 | L=64 | — | (16,64) | 
| 展平层 | — | SeLU | 1 024 | 
| 全连接层 | U=128 | SeLU | 128 | 
| Dropout | — | — | 128 | 
| 分类层 | U=5 | Softmax | 5 | 
表2 模型参数信息2
Tab. 2 Model parameter information 2
| 网络层 | 参数 | 激活函数 | 输出尺寸 | 
|---|---|---|---|
| 编码器 | — | — | (16,64) | 
| 自注意力机制 | L=64 | — | (16,64) | 
| 展平层 | — | SeLU | 1 024 | 
| 全连接层 | U=128 | SeLU | 128 | 
| Dropout | — | — | 128 | 
| 分类层 | U=5 | Softmax | 5 | 
| 名称 | 部件 | 转速 | 负载 | 样本长度 | 样本数 | 
|---|---|---|---|---|---|
| 数据A | 轴承 | 20 | 0.00 | 1 024 | 1 000×5 | 
| 数据B | 轴承 | 30 | 7.32 | 1 024 | 1 000×5 | 
| 数据C | 齿轮 | 20 | 0.00 | 1 024 | 1 000×5 | 
| 数据D | 齿轮 | 30 | 7.32 | 1 024 | 1 000×5 | 
表3 实验数据信息
Tab. 3 Experimental data information
| 名称 | 部件 | 转速 | 负载 | 样本长度 | 样本数 | 
|---|---|---|---|---|---|
| 数据A | 轴承 | 20 | 0.00 | 1 024 | 1 000×5 | 
| 数据B | 轴承 | 30 | 7.32 | 1 024 | 1 000×5 | 
| 数据C | 齿轮 | 20 | 0.00 | 1 024 | 1 000×5 | 
| 数据D | 齿轮 | 30 | 7.32 | 1 024 | 1 000×5 | 
| 训练样本数 | 测试集识别率/% | 训练样本数 | 测试集识别率/% | 
|---|---|---|---|
| 1 | 52.04 | 50 | 98.47 | 
| 3 | 70.83 | 60 | 99.00 | 
| 5 | 86.87 | 70 | 99.13 | 
| 7 | 79.82 | 80 | 98.60 | 
| 10 | 95.00 | 70 | 99.13 | 
| 20 | 97.27 | 80 | 98.60 | 
| 30 | 97.89 | 90 | 99.23 | 
| 40 | 98.07 | 100 | 99.56 | 
表4 不同训练样本数下的识别率
Tab. 4 Recognition rates under different numbers of training samples
| 训练样本数 | 测试集识别率/% | 训练样本数 | 测试集识别率/% | 
|---|---|---|---|
| 1 | 52.04 | 50 | 98.47 | 
| 3 | 70.83 | 60 | 99.00 | 
| 5 | 86.87 | 70 | 99.13 | 
| 7 | 79.82 | 80 | 98.60 | 
| 10 | 95.00 | 70 | 99.13 | 
| 20 | 97.27 | 80 | 98.60 | 
| 30 | 97.89 | 90 | 99.23 | 
| 40 | 98.07 | 100 | 99.56 | 
| 实验 | 源域数据 | 目标域数据 | 
|---|---|---|
| A→B | 数据A | 数据B | 
| A→C | 数据C | |
| A→D | 数据D | |
| B→A | 数据B | 数据A | 
| B→C | 数据C | |
| B→D | 数据D | |
| C→A | 数据C | 数据A | 
| C→B | 数据B | |
| C→D | 数据D | |
| D→A | 数据D | 数据A | 
| D→B | 数据B | |
| D→C | 数据C | 
表5 实验设置
Tab. 5 Experimental setting
| 实验 | 源域数据 | 目标域数据 | 
|---|---|---|
| A→B | 数据A | 数据B | 
| A→C | 数据C | |
| A→D | 数据D | |
| B→A | 数据B | 数据A | 
| B→C | 数据C | |
| B→D | 数据D | |
| C→A | 数据C | 数据A | 
| C→B | 数据B | |
| C→D | 数据D | |
| D→A | 数据D | 数据A | 
| D→B | 数据B | |
| D→C | 数据C | 
| 目标域样本数 | 类自适应迁移 | 域自适应迁移 | 微调 | |||
|---|---|---|---|---|---|---|
| A→B | A→D | A→B | A→D | A→B | A→D | |
| 1 | 97.25 | 91.32 | 96.21 | 82.96 | 90.41 | 71.66 | 
| 3 | 98.58 | 92.13 | 96.68 | 85.70 | 94.14 | 78.84 | 
| 5 | 98.64 | 93.96 | 97.60 | 86.46 | 96.42 | 83.87 | 
| 7 | 98.93 | 93.34 | 97.91 | 90.11 | 96.96 | 88.50 | 
| 10 | 99.50 | 93.57 | 97.96 | 91.35 | 97.05 | 89.34 | 
表6 不同迁移学习方法的识别率 ( %)
Tab. 6 Recognition accuracies of different transfer learning methods
| 目标域样本数 | 类自适应迁移 | 域自适应迁移 | 微调 | |||
|---|---|---|---|---|---|---|
| A→B | A→D | A→B | A→D | A→B | A→D | |
| 1 | 97.25 | 91.32 | 96.21 | 82.96 | 90.41 | 71.66 | 
| 3 | 98.58 | 92.13 | 96.68 | 85.70 | 94.14 | 78.84 | 
| 5 | 98.64 | 93.96 | 97.60 | 86.46 | 96.42 | 83.87 | 
| 7 | 98.93 | 93.34 | 97.91 | 90.11 | 96.96 | 88.50 | 
| 10 | 99.50 | 93.57 | 97.96 | 91.35 | 97.05 | 89.34 | 
| 源域 | 目标域 | |||
|---|---|---|---|---|
| A | B | C | D | |
| A | * | 97.25 | 88.11 | 91.32 | 
| B | 96.56 | * | 87.86 | 89.43 | 
| C | 90.31 | 91.26 | * | 95.47 | 
| D | 89.72 | 90.06 | 96.23 | * | 
表7 不同迁移任务的故障识别率 ( %)
Tab. 7 Fault recognition rates for different migration tasks
| 源域 | 目标域 | |||
|---|---|---|---|---|
| A | B | C | D | |
| A | * | 97.25 | 88.11 | 91.32 | 
| B | 96.56 | * | 87.86 | 89.43 | 
| C | 90.31 | 91.26 | * | 95.47 | 
| D | 89.72 | 90.06 | 96.23 | * | 
| 目标域标记数据数量 | 迁移任务 | CNN+类自适应 | 文献[ | 文献[ | 文献[ | 本文模型 | 
|---|---|---|---|---|---|---|
| 1 | A→B | 93.18 | 92.36 | 96.01 | 95.84 | 97.25 | 
| A→D | 81.36 | 79.67 | 89.85 | 86.87 | 91.32 | |
| 3 | A→B | 93.64 | 92.91 | 97.26 | 96.78 | 98.58 | 
| A→D | 84.55 | 80.45 | 91.33 | 88.93 | 92.13 | |
| 5 | A→B | 93.97 | 93.37 | 98.35 | 97.52 | 98.64 | 
| A→D | 86.06 | 81.28 | 92.40 | 89.57 | 93.96 | |
| 7 | A→B | 94.65 | 94.52 | 98.90 | 98.21 | 98.93 | 
| A→D | 86.59 | 81.42 | 93.79 | 89.95 | 93.34 | |
| 10 | A→B | 95.89 | 95.13 | 99.06 | 98.56 | 99.50 | 
| A→D | 86.47 | 82.07 | 93.10 | 90.16 | 93.57 | 
表8 本文模型与其他模型的准确率比较 ( %)
Tab. 8 Comparison of accuracy between the proposed method and other methods
| 目标域标记数据数量 | 迁移任务 | CNN+类自适应 | 文献[ | 文献[ | 文献[ | 本文模型 | 
|---|---|---|---|---|---|---|
| 1 | A→B | 93.18 | 92.36 | 96.01 | 95.84 | 97.25 | 
| A→D | 81.36 | 79.67 | 89.85 | 86.87 | 91.32 | |
| 3 | A→B | 93.64 | 92.91 | 97.26 | 96.78 | 98.58 | 
| A→D | 84.55 | 80.45 | 91.33 | 88.93 | 92.13 | |
| 5 | A→B | 93.97 | 93.37 | 98.35 | 97.52 | 98.64 | 
| A→D | 86.06 | 81.28 | 92.40 | 89.57 | 93.96 | |
| 7 | A→B | 94.65 | 94.52 | 98.90 | 98.21 | 98.93 | 
| A→D | 86.59 | 81.42 | 93.79 | 89.95 | 93.34 | |
| 10 | A→B | 95.89 | 95.13 | 99.06 | 98.56 | 99.50 | 
| A→D | 86.47 | 82.07 | 93.10 | 90.16 | 93.57 | 
| 位置 | 权重变化区间 | 偏置变化区间 | 
|---|---|---|
| 第一编码层 | (-0.284,0.294) | (-0.013.0.010) | 
| 第二编码层 | (-0.319,0.273) | (-0.014.0.018) | 
| 第三编码层 | (-0.329,0.316) | (-0.016.0.033) | 
| 全连接层 | (-0.208,0.211) | (-0.053.0.047) | 
表9 权重和偏置的变化区间
Tab. 9 Range of weight and bias changes
| 位置 | 权重变化区间 | 偏置变化区间 | 
|---|---|---|
| 第一编码层 | (-0.284,0.294) | (-0.013.0.010) | 
| 第二编码层 | (-0.319,0.273) | (-0.014.0.018) | 
| 第三编码层 | (-0.329,0.316) | (-0.016.0.033) | 
| 全连接层 | (-0.208,0.211) | (-0.053.0.047) | 
| 1 | ZHU H P, CHENG J X, ZHANG C, et al. Stacked pruning sparse denoising autoencoder based intelligent fault diagnosis of rolling bearings[J]. Applied Soft Computing, 2020, 88: No.106060. 10.1016/j.asoc.2019.106060 | 
| 2 | SHAO H D, JIANG H K, ZHAO K, et al. A novel tracking deep wavelet auto-encoder method for intelligent fault diagnosis of electric locomotive bearings[J]. Mechanical Systems and Signal Processing, 2018, 110: 193-209. 10.1016/j.ymssp.2018.03.011 | 
| 3 | 陈保家,陈学力,沈保明,等. CNN-LSTM深度神经网络在滚动轴承故障诊断中的应用[J].西安交通大学学报, 2021, 55(6): 28-36. 10.7652/xjtuxb202106004 | 
| CHEN B J, CHEN X L, SHEN B M, et al. An application of convolution neural network and long short-term memory in rolling bearing fault diagnosis[J]. Journal of Xi’an Jiaotong University, 2021, 55(6): 28-36. 10.7652/xjtuxb202106004 | |
| 4 | 李益兵,马建波,江丽.基于SFLA改进卷积神经网络的滚动轴承故障诊断[J].振动与冲击, 2020, 39(24): 187-193. 10.13465/j.cnki.jvs.2020.24.026 | 
| LI Y B, MA J B, JIANG L. Fault diagnosis of rolling bearing based on an improved convolutional neural network using SFLA[J]. Journal of Vibration and Shock, 2020, 39(24): 187-193. 10.13465/j.cnki.jvs.2020.24.026 | |
| 5 | YAN X A, SHE D M, XU Y D, et al. Deep regularized variational autoencoder for intelligent fault diagnosis of rotor-bearing system within entire life-cycle process[J]. Knowledge-Based Systems, 2021 226: No.107142. 10.1016/j.knosys.2021.107142 | 
| 6 | CAO P, ZHANG S L, TANG J. Preprocessing-free gear fault diagnosis using small datasets with deep convolutional neural network-based transfer learning[J]. IEEE Access, 2018, 6: 26241-26253. 10.1109/access.2018.2837621 | 
| 7 | PERSELLO C, BRUZZONE L. Kernel-based domain-invariant feature selection in hyperspectral images for transfer learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(5): 2615-2626. 10.1109/TGRS.2015.2503885 | 
| 8 | LU W N, LIANG B, CHENG Y, et al. Deep model based domain adaptation for fault diagnosis[J]. IEEE Transactions on Industrial Electronics, 2017, 64(3): 2296-2305. 10.1109/tie.2016.2627020 | 
| 9 | 杨春柳.基于卷积神经网络的多层域自适应滚动轴承故障诊断[J].电子测量与仪器学报, 2021, 35(2): 122-129. 10.13382/j.jemi.B2003116 | 
| YANG C L. Multi-domain adaptive rolling bearing fault diagnosis based on convolutional neural network[J]. Journal of Electronic Measurement and Instrumentation, 2021, 35(2): 122-129. 10.13382/j.jemi.B2003116 | |
| 10 | WANG H J, BAI X W, TAN J, et al. Deep prototypical networks based domain adaptation for fault diagnosis[J]. Journal of Intelligent Manufacturing, 2022, 33(4): 973-983. 10.1007/s10845-020-01709-4 | 
| 11 | REZAEIANJOUYBARI B, SHANG Y. A novel deep multi-source domain adaptation framework for bearing fault diagnosis based on feature-level and task-specific distribution alignment[J]. Measurement, 2021, 178: No.109359. 10.1016/j.measurement.2021.109359 | 
| 12 | LI X D, HU Y, ZHENG J H, et al. Central moment discrepancy based domain adaptation for intelligent bearing fault diagnosis[J]. Neurocomputing, 2021, 429: 12-24. 10.1016/j.neucom.2020.11.063 | 
| 13 | ZHANG Z W, CHEN H H, LI S M, et al. A novel unsupervised domain adaptation based on deep neural network and manifold regularization for mechanical fault diagnosis[J]. Measurement Science and Technology, 2020, 31(8): No.085101. 10.1088/1361-6501/ab78c4 | 
| 14 | SHIN H C, ORTON M R, COLLINS D J, et al. Stacked autoencoders for unsupervised feature learning and multiple organ detection in a pilot study using 4D patient data[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1930-1943. 10.1109/tpami.2012.277 | 
| 15 | HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778. 10.1109/cvpr.2016.90 | 
| 16 | KLAMBAUER G, UNTERTHINER T, MAYER A, et al. Self-normalizing neural networks [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 972-981. | 
| 17 | HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving neural networks by preventing co-adaptation of feature detectors[EB/OL]. (2012-07-03) [2021-03-20]. . | 
| [1] | 余新言, 曾诚, 王乾, 何鹏, 丁晓玉. 基于知识增强和提示学习的小样本新闻主题分类方法[J]. 《计算机应用》唯一官方网站, 2024, 44(6): 1767-1774. | 
| [2] | 吴郅昊, 迟子秋, 肖婷, 王喆. 基于元学习自适应的小样本语音合成[J]. 《计算机应用》唯一官方网站, 2024, 44(5): 1629-1635. | 
| [3] | 时旺军, 王晶, 宁晓军, 林友芳. 小样本场景下的元迁移学习睡眠分期模型[J]. 《计算机应用》唯一官方网站, 2024, 44(5): 1445-1451. | 
| [4] | 李鸿天, 史鑫昊, 潘卫国, 徐成, 徐冰心, 袁家政. 融合多尺度和注意力机制的小样本目标检测[J]. 《计算机应用》唯一官方网站, 2024, 44(5): 1437-1444. | 
| [5] | 李威, 陈玲, 徐修远, 朱敏, 郭际香, 周凯, 牛颢, 张煜宸, 易珊烨, 章毅, 罗凤鸣. 基于多任务学习的间质性肺病分割算法[J]. 《计算机应用》唯一官方网站, 2024, 44(4): 1285-1293. | 
| [6] | 付可意, 王高才, 邬满. 基于改进区域提议网络和特征聚合小样本目标检测方法[J]. 《计算机应用》唯一官方网站, 2024, 44(12): 3790-3797. | 
| [7] | 谢莉, 舒卫平, 耿俊杰, 王琼, 杨海麟. 结合加权原型和自适应张量子空间的小样本宫颈细胞分类[J]. 《计算机应用》唯一官方网站, 2024, 44(10): 3200-3208. | 
| [8] | 于碧辉, 蔡兴业, 魏靖烜. 基于提示学习的小样本文本分类方法[J]. 《计算机应用》唯一官方网站, 2023, 43(9): 2735-2740. | 
| [9] | 姜钧舰, 刘达维, 刘逸凡, 任酉贵, 赵志滨. 基于孪生网络的小样本目标检测算法[J]. 《计算机应用》唯一官方网站, 2023, 43(8): 2325-2329. | 
| [10] | 王辉, 李建红. 基于Transformer的三维模型小样本识别方法[J]. 《计算机应用》唯一官方网站, 2023, 43(6): 1750-1758. | 
| [11] | 蔡引江, 许光俊, 马喜波. 图结构表示下的药物数据增强方法[J]. 《计算机应用》唯一官方网站, 2023, 43(4): 1136-1141. | 
| [12] | 富坤, 郝玉涵, 孙明磊, 刘赢华. 基于优化图结构自编码器的网络表示学习[J]. 《计算机应用》唯一官方网站, 2023, 43(10): 3054-3061. | 
| [13] | 蔡淳豪, 李建良. 小样本问题下培训弱教师网络的模型蒸馏模型[J]. 《计算机应用》唯一官方网站, 2022, 42(9): 2652-2658. | 
| [14] | 邓杰航, 郭文权, 陈汉杰, 顾国生, 刘景建, 杜宇坤, 刘超, 康晓东, 赵建. 融合多尺度多头自注意力和在线难例挖掘的小样本硅藻检测[J]. 《计算机应用》唯一官方网站, 2022, 42(8): 2593-2600. | 
| [15] | 许仁杰, 刘宝弟, 张凯, 刘伟锋. 基于贝叶斯权函数的模型无关元学习算法[J]. 《计算机应用》唯一官方网站, 2022, 42(3): 708-712. | 
| 阅读次数 | ||||||
| 全文 |  | |||||
| 摘要 |  | |||||