其他分享
首页 > 其他分享> > 基于MATLAB的深度自动编码器的无监督轴承异常检测

基于MATLAB的深度自动编码器的无监督轴承异常检测

作者:互联网

        基于MATLAB的DeepLearnToolbox工具箱(https://github.com/rasmusbergpalm/DeepLearnToolbox),本文在此基础上改成深度自动编码器用于无监督学习,即含有多个隐含层的自动编码器,其输入=输出,简称DAE。后续将其用于轴承故障的异常检测中。

1.相关原理

图1  DAE初始化示意图

       对于一个含n个隐含层的DAE,训练时分为预训练与微调两个阶段。预训练阶段时,相邻两层可以通过采用一个单隐层的自动编码器(AE)进行预训练,下一个AE的输入来自上一个AE的隐含层输出,即DAE的上一个隐含层的输出,相关理论可以看这个论文(https://kns.cnki.net/kcms/detail/detail.aspx?FileName=1020832508.nh&DbName=CMFD2021)。上面称之为逐层预训练,训练完毕之后,得到n个AE,利用这些AE的输入权重与输出权重替换DAE中的初始权重,初始化示意图如图1所示,接着在这个基础上利用bp算法进行微调,得到最终的DAE。

2.DAE用于MNIST手写字体重构

%% DAE
clc;clear;close all;format compact
addpath(genpath('../utils/'))
rng(0)
%% 1.导入数据
load mnist_uint8
data=double(train_x);
% method=@mapstd;
method=@mapminmax;
[xs,mapping]=method(data');
train_x=xs';

%% 无监督训练多个自动编码器 假设输入维度为 sizes=[n n1 n2],则训练两个ae 一个是n-n1-n 一个是n1-n2-n1
sizes=[size(train_x,2) 200 100 50];
learningRate1=0.01;%各ae的学习率
numepochs1=10;%各ae的训练次数
batchsize1=256;%%各ae的batchsize
activation_function='sigm';%各ae的激活函数
dae = daesetup(sizes,activation_function,learningRate1);
opts.numepochs =   numepochs1; 
opts.batchsize = batchsize1; 
opts.show=1;% 0就不显示训练过程
dae = daetrain(dae, train_x, opts);
%% 采用上面无监督预训练好的几个AE来堆栈DAE,构建深度自编码器
learningRate2=0.01;%sae的学习率
numepochs2=100;%dae的训练次数
batchsize2=256;%dae的batchsize
nn = nnsetup([size(train_x,2) 200 100 50 100 200 size(train_x,2)]);%对称的结构,和ae一样,只不过dae是包含多个隐含层的ae
nn.activation_function= 'sigm';
nn.learningRate= learningRate2;
nn=daeunfoldnn(nn,dae);%利用AE的参数初始化DAE
opts.numepochs =   numepochs2;
opts.batchsize = batchsize2;
nn.output      = 'linear';
opts.show=1;% 0就不显示训练过程
opts.plot = 1;%0就不显示loss曲线
nn = nntrain(nn, train_x, train_x, opts);%输入=输出
disp('训练完毕')
%% 
re = nnpredict(nn, train_x);
% 取几个重构的画图
xs=method('reverse',re',mapping);
pred_x=uint8(xs');
pred_x=pred_x(1:25,:);
n=1;
convaspred_x=uint8(zeros(28*5,28*5));

for i = 1:5
    for j =1:5
        convaspred_x((i-1)*28+1:i*28,(j-1)*28+1:j*28)=reshape(pred_x(n,:),[28,28])';
        n=n+1;
    end
end

% 取对应的几个真实的画图
xs=method('reverse',train_x',mapping);
real_x=uint8(xs');
real_x=real_x(1:25,:);
n=1;
convasreal_x=uint8(zeros(28*5,28*5));
for i = 1:5
    for j =1:5
        convasreal_x((i-1)*28+1:i*28,(j-1)*28+1:j*28)=reshape(real_x(n,:),[28,28])';
        n=n+1;
    end
end

figure
imshow(convaspred_x)
title('reconstruct')
figure
imshow(convasreal_x)
title('original')



训练次数设置的100次,目测loss曲线还在继续下降,可以继续训练,这里就不做展示了。

3 基于DAE的轴承故障无监督异常检测

背景:自然界中含有大量正常样本 而少量异常样本,如果直接构建2分类模型,则容易造成数据不均衡,为此有专家提出无监督异常检测。作为异常检测的经典方法,DAE仅用正常样本进行训练,其输入=输出,以输入输出之间的重构误差最小化作为损失函数,学习的是正常样本的数据分布,当输入异常样本时,由于DAE没有用异常数据进行训练,其重构数据与本身将会产生较大的重构误差,基于此思想,DAE本广泛用于异常检测中。

3.1 数据集构建

       采用西储大学轴承故障诊断数据集,48K/0HP数据,共9类故障+一类正常。为模拟自然界中的【大量正常样本 而少量异常样本】这一情况。本文从正常数据中取1000个正常样本,标签记为1;从9类故障中每类取10个样本,共90个故障样本,记为2。

%% 数据预处理(训练集 测试集划分)
clc;clear;close all

%% 加载原始数据
load 0HP/48k_Drive_End_B007_0_122;    a1=X122_DE_time'; %1
load 0HP/48k_Drive_End_B014_0_189;    a2=X189_DE_time'; %2
load 0HP/48k_Drive_End_B021_0_226;    a3=X226_DE_time'; %3
load 0HP/48k_Drive_End_IR007_0_109;   a4=X109_DE_time'; %4
load 0HP/48k_Drive_End_IR014_0_174 ;  a5=X173_DE_time';%5
load 0HP/48k_Drive_End_IR021_0_213 ;  a6=X213_DE_time';%6
load 0HP/48k_Drive_End_OR007@6_0_135 ;a7=X135_DE_time';%7
load 0HP/48k_Drive_End_OR014@6_0_201 ;a8=X201_DE_time';%8
load 0HP/48k_Drive_End_OR021@6_0_238 ;a9=X238_DE_time';%9
load 0HP/normal_0_97                 ;a10=X097_DE_time';%10

%% 自然界中含有大量正常样本 而少量异常样本,因此下面生成数据集的时候正常弄多点
N1=1000;
N2=10;
L=1024;% 异常状态(故障类数据)每种状态取N2个样本  每个样本长度为L,而正常状态取N1个样本  每个样本长度为L
data=[];label=[];
for i=1:10
    if i==1;ori_data=a1;end
    if i==2;ori_data=a2;end
    if i==3;ori_data=a3;end
    if i==4;ori_data=a4;end
    if i==5;ori_data=a5;end
    if i==6;ori_data=a6;end
    if i==7;ori_data=a7;end
    if i==8;ori_data=a8;end
    if i==9;ori_data=a9;end
    if i==10;ori_data=a10;end
    
    
    for j=1:N1
        if i<=9
            if j==N2+1
                break
            end
        end
        start_point=randi(length(ori_data)-L);%随机取一个起点
        end_point=start_point+L-1;
        data=[data ;ori_data(start_point:end_point)];
        label=[label;i];
    end    
end

%% 异常检测标签,除了正常之外,其他的都是异常,正常用1来表示,异常用标签2表示
% 无监督的异常检测方法,训练时仅用正常样本来进行训练
data_normal=data(label==10,:);%注意上面,加载的时候正常是a10
data_abnormal=data(label~=10,:);%不是10的都是异常


% 正常样本取200个以及所有的异常数据作为测试集,用来测试网络性能
index=randperm(size(data_normal,1));
train_x=data_normal(index(1:end-200),:);


test_x=[data_normal(index(end-200+1:end),:);
    data_abnormal];
test_y=[ones(size(data_normal(index(end-200+1:end),:),1),1);2*ones(size(data_abnormal,1),1)];%测试集的标签,训练集全是正常的,这里就不做标签了

save result/data_process train_x test_x test_y

3.2 DAE无监督异常检测,DAE结构为1024-10-8-5-8-10-1024(参数是随笔设的,并没有最优)

%% DAE 深度自动编码器 无监督异常检测
clc;clear;close all;format compact
addpath(genpath('utils/'))
rng(0)
%% 1.导入数据
load result/data_process
data=train_x;
% method=@mapstd;
method=@mapminmax;
[xs,mapping]=method(data');
train_x=xs';

%% 无监督训练多个自动编码器 假设输入维度为 sizes=[n n1 n2],则训练两个ae 一个是n-n1-n 一个是n1-n2-n1
sizes=[size(train_x,2) 10 8 5];
learningRate1=0.01;%各ae的学习率
numepochs1=10;%各ae的训练次数
batchsize1=20;%%各ae的batchsize
activation_function='sigm';%各ae的激活函数
dae = daesetup(sizes,activation_function,learningRate1);
opts.numepochs =   numepochs1; 
opts.batchsize = batchsize1; 
opts.show=1;% 0就不显示训练过程
dae = daetrain(dae, train_x, opts);
%% 采用上面无监督预训练好的几个AE来堆栈DAE,构建深度自编码器
learningRate2=0.01;%sae的学习率
numepochs2=100;%dae的训练次数
batchsize2=20;%dae的batchsize
nn = nnsetup([size(train_x,2) 10 8 5 8 10 size(train_x,2)]);%对称的结构,和ae一样,只不过dae是包含多个隐含层的ae
nn.activation_function= 'sigm';
nn.learningRate= learningRate2;
nn=daeunfoldnn(nn,dae);%利用AE的参数初始化DAE
opts.numepochs =   numepochs2;
opts.batchsize = batchsize2;
nn.output      = 'linear';
opts.show=1;% 0就不显示训练过程
opts.plot = 1;%0就不显示loss曲线
disp('Train DAE ')
nn = nntrain(nn, train_x, train_x, opts);%输入=输出
disp('训练完毕')
%% 预测 并计算指标
labels0 = nnpredict(nn, train_x);
% 计算每一个重构误差
error0=sum((labels0-train_x).^2,2);
% 以均值+3方差为阈值
threshold=mean(error0)+3*std(error0);
%% 对测试集进行分类
data=test_x;
xs=method('apply',data',mapping);
test_x=xs';

labels = nnpredict(nn, test_x);



% 计算每一个重构误差
error=sum((labels-test_x).^2,2);
figure;plot(error);
%% 计算检测的正确率
pred=[];
pred(error<=threshold,1)=1;
pred(error>threshold,1)=2;

real=test_y;

MatrixClassTable=[real pred];
[EA,OA,AA,Kappa]=ClassifiEvaluate(MatrixClassTable);
disp('----------结果-------------')
disp('各类精度');EA
disp('总体精度');OA
disp('平均精度');AA
disp('kappa系数');Kappa

figure
plot(real,'ro')
hold on ;grid on
plot(pred,'b*')
legend('真实标签','预测标签')
xlabel('测试集样本')
ylabel('标签')




loss curve:

测试集中每个样本的重构误差(头200个为正常数据,后面90个为异常数据):

以训练集样本的重构误差的均值+3倍方差为阈值,对测试集样本进行判别,大于该阈值的为异常,小于该预测的为正常,得出以下:

混淆矩阵
ConfuMatrix =
   199     1
     0    90
各类精度
EA =
    0.9950
    1.0000
总体精度
OA =
    0.9966
平均精度
AA =
    0.9975
kappa系数
Kappa =
    0.9920

可见DAE是有效的

标签:轴承,编码器,nn,DAE,%%,train,MATLAB,data,opts
来源: https://blog.csdn.net/qq_41043389/article/details/117191687