《计算机应用》唯一官方网站 ›› 2022, Vol. 42 ›› Issue (8): 2440-2449.DOI: 10.11772/j.issn.1001-9081.2021060905
• 人工智能 • 上一篇
收稿日期:
2021-06-01
修回日期:
2021-08-31
接受日期:
2021-09-14
发布日期:
2022-08-09
出版日期:
2022-08-10
通讯作者:
邵思羽
作者简介:
张剑(1997—),男,四川西昌人,硕士研究生,主要研究方向:深度学习、旋转机械故障诊断;基金资助:
Jian ZHANG1, Peiyuan CHENG2, Siyu SHAO2()
Received:
2021-06-01
Revised:
2021-08-31
Accepted:
2021-09-14
Online:
2022-08-09
Published:
2022-08-10
Contact:
Siyu SHAO
About author:
ZHANG Jian, born in 1997, M. S. candidate. His research interests include deep learning, rotary machine fault diagnosis.Supported by:
摘要:
针对旋转机械传感器信号样本有限影响深层网络模型训练学习的问题,提出一种结合改进残差卷积自编码网络与类自适应方法的故障诊断模型应对小样本数据。首先将少量已标记的源域数据和目标域数据创建为成对样本,并设计一种改进的一维残差卷积自编码网络对两种不同分布的原始振动信号进行特征提取;其次,利用最大均值差异(MMD)减小分布差异,并将两个域同一故障类别的数据空间映射到一个共同的特征空间,最终实现准确的故障诊断。实验结果表明,与微调、域自适应等方法相比,所提模型能够有效提高不同工况、微量已标记的目标域振动数据下的故障诊断准确率。
中图分类号:
张剑, 程培源, 邵思羽. 基于改进残差卷积自编码网络的类自适应旋转机械故障诊断[J]. 计算机应用, 2022, 42(8): 2440-2449.
Jian ZHANG, Peiyuan CHENG, Siyu SHAO. Rotary machine fault diagnosis based on improved residual convolutional auto-encoding network and class adaptation[J]. Journal of Computer Applications, 2022, 42(8): 2440-2449.
网络层 | 参数 | 激活函数 | 输出尺寸 |
---|---|---|---|
输入 | — | — | (1 024,1) |
卷积 | f=64, k=16, s=1 | SeLU | (1 024,64) |
最大池化 | p=8, s=8 | — | (128,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) |
最大池化 | p=2, s=2 | — | (64,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) |
最大池化 | p=2, s=2 | — | (32,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) |
最大池化 | p=2, s=2 | — | (16,64) |
上采样 | s=2 | — | (32,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) |
上采样 | s=2 | — | (64,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) |
上采样 | s=2 | — | (128,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) |
上采样 | s=8 | — | (1 024,64) |
卷积 | f=1, k=16, s=1 | SeLU | (1 024,1) |
表1 模型参数信息1
Tab. 1 Model parameter information 1
网络层 | 参数 | 激活函数 | 输出尺寸 |
---|---|---|---|
输入 | — | — | (1 024,1) |
卷积 | f=64, k=16, s=1 | SeLU | (1 024,64) |
最大池化 | p=8, s=8 | — | (128,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) |
最大池化 | p=2, s=2 | — | (64,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) |
最大池化 | p=2, s=2 | — | (32,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) |
最大池化 | p=2, s=2 | — | (16,64) |
上采样 | s=2 | — | (32,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (32,64) |
上采样 | s=2 | — | (64,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (64,64) |
上采样 | s=2 | — | (128,64) |
残差模块 | f1=f2=64, k1=k2=3, s1=s2=1 | SeLU | (128,64) |
上采样 | s=8 | — | (1 024,64) |
卷积 | f=1, k=16, s=1 | SeLU | (1 024,1) |
网络层 | 参数 | 激活函数 | 输出尺寸 |
---|---|---|---|
编码器 | — | — | (16,64) |
自注意力机制 | L=64 | — | (16,64) |
展平层 | — | SeLU | 1 024 |
全连接层 | U=128 | SeLU | 128 |
Dropout | — | — | 128 |
分类层 | U=5 | Softmax | 5 |
表2 模型参数信息2
Tab. 2 Model parameter information 2
网络层 | 参数 | 激活函数 | 输出尺寸 |
---|---|---|---|
编码器 | — | — | (16,64) |
自注意力机制 | L=64 | — | (16,64) |
展平层 | — | SeLU | 1 024 |
全连接层 | U=128 | SeLU | 128 |
Dropout | — | — | 128 |
分类层 | U=5 | Softmax | 5 |
名称 | 部件 | 转速 | 负载 | 样本长度 | 样本数 |
---|---|---|---|---|---|
数据A | 轴承 | 20 | 0.00 | 1 024 | 1 000×5 |
数据B | 轴承 | 30 | 7.32 | 1 024 | 1 000×5 |
数据C | 齿轮 | 20 | 0.00 | 1 024 | 1 000×5 |
数据D | 齿轮 | 30 | 7.32 | 1 024 | 1 000×5 |
表3 实验数据信息
Tab. 3 Experimental data information
名称 | 部件 | 转速 | 负载 | 样本长度 | 样本数 |
---|---|---|---|---|---|
数据A | 轴承 | 20 | 0.00 | 1 024 | 1 000×5 |
数据B | 轴承 | 30 | 7.32 | 1 024 | 1 000×5 |
数据C | 齿轮 | 20 | 0.00 | 1 024 | 1 000×5 |
数据D | 齿轮 | 30 | 7.32 | 1 024 | 1 000×5 |
训练样本数 | 测试集识别率/% | 训练样本数 | 测试集识别率/% |
---|---|---|---|
1 | 52.04 | 50 | 98.47 |
3 | 70.83 | 60 | 99.00 |
5 | 86.87 | 70 | 99.13 |
7 | 79.82 | 80 | 98.60 |
10 | 95.00 | 70 | 99.13 |
20 | 97.27 | 80 | 98.60 |
30 | 97.89 | 90 | 99.23 |
40 | 98.07 | 100 | 99.56 |
表4 不同训练样本数下的识别率
Tab. 4 Recognition rates under different numbers of training samples
训练样本数 | 测试集识别率/% | 训练样本数 | 测试集识别率/% |
---|---|---|---|
1 | 52.04 | 50 | 98.47 |
3 | 70.83 | 60 | 99.00 |
5 | 86.87 | 70 | 99.13 |
7 | 79.82 | 80 | 98.60 |
10 | 95.00 | 70 | 99.13 |
20 | 97.27 | 80 | 98.60 |
30 | 97.89 | 90 | 99.23 |
40 | 98.07 | 100 | 99.56 |
实验 | 源域数据 | 目标域数据 |
---|---|---|
A→B | 数据A | 数据B |
A→C | 数据C | |
A→D | 数据D | |
B→A | 数据B | 数据A |
B→C | 数据C | |
B→D | 数据D | |
C→A | 数据C | 数据A |
C→B | 数据B | |
C→D | 数据D | |
D→A | 数据D | 数据A |
D→B | 数据B | |
D→C | 数据C |
表5 实验设置
Tab. 5 Experimental setting
实验 | 源域数据 | 目标域数据 |
---|---|---|
A→B | 数据A | 数据B |
A→C | 数据C | |
A→D | 数据D | |
B→A | 数据B | 数据A |
B→C | 数据C | |
B→D | 数据D | |
C→A | 数据C | 数据A |
C→B | 数据B | |
C→D | 数据D | |
D→A | 数据D | 数据A |
D→B | 数据B | |
D→C | 数据C |
目标域样本数 | 类自适应迁移 | 域自适应迁移 | 微调 | |||
---|---|---|---|---|---|---|
A→B | A→D | A→B | A→D | A→B | A→D | |
1 | 97.25 | 91.32 | 96.21 | 82.96 | 90.41 | 71.66 |
3 | 98.58 | 92.13 | 96.68 | 85.70 | 94.14 | 78.84 |
5 | 98.64 | 93.96 | 97.60 | 86.46 | 96.42 | 83.87 |
7 | 98.93 | 93.34 | 97.91 | 90.11 | 96.96 | 88.50 |
10 | 99.50 | 93.57 | 97.96 | 91.35 | 97.05 | 89.34 |
表6 不同迁移学习方法的识别率 ( %)
Tab. 6 Recognition accuracies of different transfer learning methods
目标域样本数 | 类自适应迁移 | 域自适应迁移 | 微调 | |||
---|---|---|---|---|---|---|
A→B | A→D | A→B | A→D | A→B | A→D | |
1 | 97.25 | 91.32 | 96.21 | 82.96 | 90.41 | 71.66 |
3 | 98.58 | 92.13 | 96.68 | 85.70 | 94.14 | 78.84 |
5 | 98.64 | 93.96 | 97.60 | 86.46 | 96.42 | 83.87 |
7 | 98.93 | 93.34 | 97.91 | 90.11 | 96.96 | 88.50 |
10 | 99.50 | 93.57 | 97.96 | 91.35 | 97.05 | 89.34 |
源域 | 目标域 | |||
---|---|---|---|---|
A | B | C | D | |
A | * | 97.25 | 88.11 | 91.32 |
B | 96.56 | * | 87.86 | 89.43 |
C | 90.31 | 91.26 | * | 95.47 |
D | 89.72 | 90.06 | 96.23 | * |
表7 不同迁移任务的故障识别率 ( %)
Tab. 7 Fault recognition rates for different migration tasks
源域 | 目标域 | |||
---|---|---|---|---|
A | B | C | D | |
A | * | 97.25 | 88.11 | 91.32 |
B | 96.56 | * | 87.86 | 89.43 |
C | 90.31 | 91.26 | * | 95.47 |
D | 89.72 | 90.06 | 96.23 | * |
目标域标记数据数量 | 迁移任务 | CNN+类自适应 | 文献[ | 文献[ | 文献[ | 本文模型 |
---|---|---|---|---|---|---|
1 | A→B | 93.18 | 92.36 | 96.01 | 95.84 | 97.25 |
A→D | 81.36 | 79.67 | 89.85 | 86.87 | 91.32 | |
3 | A→B | 93.64 | 92.91 | 97.26 | 96.78 | 98.58 |
A→D | 84.55 | 80.45 | 91.33 | 88.93 | 92.13 | |
5 | A→B | 93.97 | 93.37 | 98.35 | 97.52 | 98.64 |
A→D | 86.06 | 81.28 | 92.40 | 89.57 | 93.96 | |
7 | A→B | 94.65 | 94.52 | 98.90 | 98.21 | 98.93 |
A→D | 86.59 | 81.42 | 93.79 | 89.95 | 93.34 | |
10 | A→B | 95.89 | 95.13 | 99.06 | 98.56 | 99.50 |
A→D | 86.47 | 82.07 | 93.10 | 90.16 | 93.57 |
表8 本文模型与其他模型的准确率比较 ( %)
Tab. 8 Comparison of accuracy between the proposed method and other methods
目标域标记数据数量 | 迁移任务 | CNN+类自适应 | 文献[ | 文献[ | 文献[ | 本文模型 |
---|---|---|---|---|---|---|
1 | A→B | 93.18 | 92.36 | 96.01 | 95.84 | 97.25 |
A→D | 81.36 | 79.67 | 89.85 | 86.87 | 91.32 | |
3 | A→B | 93.64 | 92.91 | 97.26 | 96.78 | 98.58 |
A→D | 84.55 | 80.45 | 91.33 | 88.93 | 92.13 | |
5 | A→B | 93.97 | 93.37 | 98.35 | 97.52 | 98.64 |
A→D | 86.06 | 81.28 | 92.40 | 89.57 | 93.96 | |
7 | A→B | 94.65 | 94.52 | 98.90 | 98.21 | 98.93 |
A→D | 86.59 | 81.42 | 93.79 | 89.95 | 93.34 | |
10 | A→B | 95.89 | 95.13 | 99.06 | 98.56 | 99.50 |
A→D | 86.47 | 82.07 | 93.10 | 90.16 | 93.57 |
位置 | 权重变化区间 | 偏置变化区间 |
---|---|---|
第一编码层 | (-0.284,0.294) | (-0.013.0.010) |
第二编码层 | (-0.319,0.273) | (-0.014.0.018) |
第三编码层 | (-0.329,0.316) | (-0.016.0.033) |
全连接层 | (-0.208,0.211) | (-0.053.0.047) |
表9 权重和偏置的变化区间
Tab. 9 Range of weight and bias changes
位置 | 权重变化区间 | 偏置变化区间 |
---|---|---|
第一编码层 | (-0.284,0.294) | (-0.013.0.010) |
第二编码层 | (-0.319,0.273) | (-0.014.0.018) |
第三编码层 | (-0.329,0.316) | (-0.016.0.033) |
全连接层 | (-0.208,0.211) | (-0.053.0.047) |
1 | ZHU H P, CHENG J X, ZHANG C, et al. Stacked pruning sparse denoising autoencoder based intelligent fault diagnosis of rolling bearings[J]. Applied Soft Computing, 2020, 88: No.106060. 10.1016/j.asoc.2019.106060 |
2 | SHAO H D, JIANG H K, ZHAO K, et al. A novel tracking deep wavelet auto-encoder method for intelligent fault diagnosis of electric locomotive bearings[J]. Mechanical Systems and Signal Processing, 2018, 110: 193-209. 10.1016/j.ymssp.2018.03.011 |
3 | 陈保家,陈学力,沈保明,等. CNN-LSTM深度神经网络在滚动轴承故障诊断中的应用[J].西安交通大学学报, 2021, 55(6): 28-36. 10.7652/xjtuxb202106004 |
CHEN B J, CHEN X L, SHEN B M, et al. An application of convolution neural network and long short-term memory in rolling bearing fault diagnosis[J]. Journal of Xi’an Jiaotong University, 2021, 55(6): 28-36. 10.7652/xjtuxb202106004 | |
4 | 李益兵,马建波,江丽.基于SFLA改进卷积神经网络的滚动轴承故障诊断[J].振动与冲击, 2020, 39(24): 187-193. 10.13465/j.cnki.jvs.2020.24.026 |
LI Y B, MA J B, JIANG L. Fault diagnosis of rolling bearing based on an improved convolutional neural network using SFLA[J]. Journal of Vibration and Shock, 2020, 39(24): 187-193. 10.13465/j.cnki.jvs.2020.24.026 | |
5 | YAN X A, SHE D M, XU Y D, et al. Deep regularized variational autoencoder for intelligent fault diagnosis of rotor-bearing system within entire life-cycle process[J]. Knowledge-Based Systems, 2021 226: No.107142. 10.1016/j.knosys.2021.107142 |
6 | CAO P, ZHANG S L, TANG J. Preprocessing-free gear fault diagnosis using small datasets with deep convolutional neural network-based transfer learning[J]. IEEE Access, 2018, 6: 26241-26253. 10.1109/access.2018.2837621 |
7 | PERSELLO C, BRUZZONE L. Kernel-based domain-invariant feature selection in hyperspectral images for transfer learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(5): 2615-2626. 10.1109/TGRS.2015.2503885 |
8 | LU W N, LIANG B, CHENG Y, et al. Deep model based domain adaptation for fault diagnosis[J]. IEEE Transactions on Industrial Electronics, 2017, 64(3): 2296-2305. 10.1109/tie.2016.2627020 |
9 | 杨春柳.基于卷积神经网络的多层域自适应滚动轴承故障诊断[J].电子测量与仪器学报, 2021, 35(2): 122-129. 10.13382/j.jemi.B2003116 |
YANG C L. Multi-domain adaptive rolling bearing fault diagnosis based on convolutional neural network[J]. Journal of Electronic Measurement and Instrumentation, 2021, 35(2): 122-129. 10.13382/j.jemi.B2003116 | |
10 | WANG H J, BAI X W, TAN J, et al. Deep prototypical networks based domain adaptation for fault diagnosis[J]. Journal of Intelligent Manufacturing, 2022, 33(4): 973-983. 10.1007/s10845-020-01709-4 |
11 | REZAEIANJOUYBARI B, SHANG Y. A novel deep multi-source domain adaptation framework for bearing fault diagnosis based on feature-level and task-specific distribution alignment[J]. Measurement, 2021, 178: No.109359. 10.1016/j.measurement.2021.109359 |
12 | LI X D, HU Y, ZHENG J H, et al. Central moment discrepancy based domain adaptation for intelligent bearing fault diagnosis[J]. Neurocomputing, 2021, 429: 12-24. 10.1016/j.neucom.2020.11.063 |
13 | ZHANG Z W, CHEN H H, LI S M, et al. A novel unsupervised domain adaptation based on deep neural network and manifold regularization for mechanical fault diagnosis[J]. Measurement Science and Technology, 2020, 31(8): No.085101. 10.1088/1361-6501/ab78c4 |
14 | SHIN H C, ORTON M R, COLLINS D J, et al. Stacked autoencoders for unsupervised feature learning and multiple organ detection in a pilot study using 4D patient data[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1930-1943. 10.1109/tpami.2012.277 |
15 | HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778. 10.1109/cvpr.2016.90 |
16 | KLAMBAUER G, UNTERTHINER T, MAYER A, et al. Self-normalizing neural networks [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 972-981. |
17 | HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving neural networks by preventing co-adaptation of feature detectors[EB/OL]. (2012-07-03) [2021-03-20]. . |
[1] | 许仁杰, 刘宝弟, 张凯, 刘伟锋. 基于贝叶斯权函数的模型无关元学习算法[J]. 《计算机应用》唯一官方网站, 2022, 42(3): 708-712. |
[2] | 杜炎, 吕良福, 焦一辰. 基于模糊推理的模糊原型网络[J]. 计算机应用, 2021, 41(7): 1885-1890. |
[3] | 甘岚, 沈鸿飞, 王瑶, 张跃进. 基于改进DCGAN的数据增强方法[J]. 计算机应用, 2021, 41(5): 1305-1313. |
[4] | 董阳, 潘海为, 崔倩娜, 边晓菲, 滕腾, 王邦菊. 面向多模态磁共振脑瘤图像的小样本分割方法[J]. 计算机应用, 2021, 41(4): 1049-1054. |
[5] | 白茹意, 郭小英, 贾春花. 基于特征融合的小样本抽象画图像情感预测[J]. 计算机应用, 2020, 40(8): 2207-2213. |
[6] | 王一丁, 郝晨宇, 李耀利, 蔡少青, 袁媛. 基于深度学习的小样本中药材粉末显微图像识别[J]. 计算机应用, 2020, 40(5): 1301-1308. |
[7] | 郑宗生, 胡晨雨, 姜晓轶. 基于改进的最大均值差异算法的深度迁移适配网络[J]. 计算机应用, 2020, 40(11): 3107-3112. |
[8] | 甘岚, 郭子涵, 王瑶. 基于径向变换和改进AlexNet的胃肿瘤细胞图像识别方法[J]. 计算机应用, 2019, 39(10): 2923-2929. |
[9] | 胡聪, 屈瑾瑾, 许川佩, 朱爱军. 基于自适应池化的神经网络的服装图像识别[J]. 计算机应用, 2018, 38(8): 2211-2217. |
[10] | 王翔, 胡学钢. 高维小样本分类问题中特征选择研究综述[J]. 计算机应用, 2017, 37(9): 2433-2438. |
[11] | 林玉娥, 陈静逸, 许光宇, 梁兴柱. 完备的无参数近邻保持及最大化非近邻算法[J]. 计算机应用, 2015, 35(8): 2244-2248. |
[12] | 郭江鸿 罗予东 刘志宏. 基于概率传输的无线传感网数据汇聚方案[J]. 计算机应用, 2013, 33(07): 1798-1801. |
[13] | 刘振 姜晖 王粒宾. 基于加权两向二维线性鉴别分析的SAR目标识别方法[J]. 计算机应用, 2013, 33(02): 534-538. |
[14] | 邬书跃 余杰 樊晓平. 基于SVM协作训练的入侵检测方法研究[J]. 计算机应用, 2011, 31(12): 3337-3339. |
[15] | 高梁 廖志武 刘晓云 陈武凡. 适用于小样本问题的有监督边界检测方法[J]. 计算机应用, 2011, 31(10): 2697-2701. |
阅读次数 | ||||||
全文 |
|
|||||
摘要 |
|
|||||