【《分合闸附件故障智能诊断方法分析概述》8400字】_第1页
【《分合闸附件故障智能诊断方法分析概述》8400字】_第2页
【《分合闸附件故障智能诊断方法分析概述》8400字】_第3页
【《分合闸附件故障智能诊断方法分析概述》8400字】_第4页
【《分合闸附件故障智能诊断方法分析概述》8400字】_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

分合闸附件故障智能诊断方法研究概述目录TOC\o"1-3"\h\u29924分合闸附件故障智能诊断方法研究概述 1260801.1一维卷积神经网络原理 1162941.2长短时记忆神经网络原理 558431.3故障诊断流程的设计 8255351.4故障诊断模型的构建 11178741.5故障诊断模型实验结果分析 15目前,国内外对于基于深度学习故障智能诊断的研究十分广泛,深度学习算法的应用有效解决了传统智能算法依赖于人工提取和领域内的专家知识、泛化能力较差,故障识别率不高等缺点。在对断路器等工业设备故障智能诊断的研究中,应用最广泛的深度学习算法主要有卷积神经网络、长短时记忆神经网络、深度置信神经网络等。由于一维数据不仅不需要进一步转化而且能够避免转化过程中故障信息的丢失,所以,在本文中,输入数据为电流信号构建的一维序列数据。而一维卷积神经网络和长短时记忆神经网络正是针对序列研究,同为分析处理一维信号。同时,基于这两种神经网络的断路器故障诊断研究十分广泛,国内外专家曾提出第一层宽卷积核自适应的一维卷积神经网络、“端到端”自适应的一维卷积神经网络以及长短时记忆神经网络结合小波包变换和Softmax分类器等模型应用于断路器故障诊断,均提高了诊断的效率和精度,但是也存在着诊断型号单一、训练时间较长等不足。所以,本文采用一维卷积神经网络和长短时记忆神经网络作对比分析,探讨合适的断路器智能诊断方法,并作进一步的改进研究。1.1一维卷积神经网络原理一维卷积神经网络是一种深度前馈人工神经网络,常应用于序列类的数据处理。本节主要介绍一维卷积神经网络的基本结构和训练过程。1.1.1一维卷积神经网络基本结构卷积神经网络(CNN)是一个深度学习结构[24-27]。它由多个卷积层和池化层组成,进行特征提取和数据压缩。然后利用全连接层和输出层进行分类并输出结果。CNN将特征提取、特征变换、信息融合、识别分类等几个步骤集成到一个深层结构中,实现了它们的联合优化。因此CNN的自适应能力和泛化能力更加优秀。由于这些优点,它被广泛应用于许多领域,并取得了许多良好的成绩。一维卷积神经网络(1DCNN)和卷积神经网络拥有相同本质[29]。1DCNN只有1个维度,时间序列信号作为输入层的输入。利用卷积层和池化层进行特征提取和分层稀疏处理,其中每一卷积层由多个卷积核组成,同一层内核尺寸大小相同。由全连接层和输出层对结果进行分类。图3-1卷积神经网络(CNN)结构示意图在卷积层中,1DCNN对输入信号的局部区域进行卷积运算,生成相应的一维特征图,不同的卷积核分别从输入信号中提取不同的特征。每个卷积核在输入特征映射的所有位置检测特定的特征,以实现对同一输入特征映射的权重分配。这种局部连通性和权重分担的特点有效地降低了网络的复杂性和训练参数的数量。一维卷积运算可以表示为(3-1)式中:、分别为第层第个神经元的输入和偏置,为第层第个神经元与第层第个神经元之间的卷积核,为第层第个神经元的输出,为第层神经元个数,为一维卷积运算。图3-2卷积运算假设输入尺寸为,卷积核尺寸为,卷积核个数为,移动步长为,则输出尺寸为,其中。不适用激活函数的卷积运算如图3-2所示在卷积层之后,特征映射的数量增加,导致数据维度的扩展,不利于计算。因此,在此阶段利用池化层处理每个特性映射。池化操作是缩小高、长方向上的空间的运算。常用的池化有最大值池化和均值池化,均值池化根据预定池化窗口的大小计算,最大值池化方法选择预定窗口范围内的最大参数作为输出值。本文采用最大值池化,池化运算为:(3-2)式中:为卷积核宽度,为第层第个神经元的输出。最大值池化运算原理如图3-3所示。图3-3最大值池化运算输入数据经过卷积和池化操作后,通过全连接层展开铺平,然后将每层输入通过式(3-3)计算输出,在最后一层通过式(3-4)输出诊断结果。(3-3)式中:为第层第个神经元的激活值,为第层第个神经元的激活值,为第层第个神经元与第层第个神经元之间的权重,为层所有神经元对层第个神经元的偏置。(3-4)式中:为输出结果矩阵,和为第种分类对应的权重和偏置矩阵。为了使神经网络能够解决一些复杂问题,在卷积神经网络中引入激活函数,其原理是利用非线性函数给神经网络加入非线性因素。本文激活函数采用ReLU函数,其是目前深度卷积神经网络中主要应用的激活函数之一,如图3-4所示。图3-4ReLU函数ReLU函数实际上是一个分段函数,定义为(3-5)1.1.2一维卷积神经网络训练过程卷积神经网络的训练分为两个过程。首先是从卷积层到全连接层的数据计算过程。当计算结果与目标值不符时,将误差偏量从全连接层到卷积层进行反向计算。训练过程如图3-5所示。图3-5一维卷积神经网络训练过程训练过程为:(1)将网络进行权值的初始化;(2)从卷积层到全连接层计算输入数据,获取网络的输出值;(3)求出网络的输出值与目标输出值之间的误差偏量e;(4)当偏量e不在容许范围内时,进行反向计算过程,利用偏量e按序求得各层误差。当偏量e达到容许范围,结束训练。(5)根据第(4)步中求得的误差更新网络权值。然后进入到第2步,重复以上过程。(6)偏量e达到允许范围,训练结束。1.2长短时记忆神经网络原理长短时记忆神经网络是以循环神经网络为基础进行改进优化的模型,主要针对时间序列数据进行研究。本节主要介绍长短时记忆神经网络的基本结构和训练过程。1.2.1长短时记忆神经网络基本结构循环神经网络(recurrentneuralnetwork,RNN)是针对时域序列数据提出的[30-32]。RNN结构展开图如图3-6所示。图3-6RNN结构展开图RNN前一步的输出将作为当前步的输入。在传统的神经网络中,所有输入和输出都是彼此独立的,但是,如果需要预测神经网络下一个单元的情况,需要记住前一个单元,RNN在“隐藏层”的帮助下解决了这个问题。RNN的主要和最重要的功能是“隐藏状态”,它可以记住一些有关序列的信息。它对每个输入使用相同的参数,因为它在所有输入或隐藏层上执行相同的任务以产生输出。与其他神经网络不同,这降低了参数的复杂性。RNN前向传播过程如式(3-6)、式(3-7)、(3-8)所示。(3-6)(3-7)(3-8)式中:为输入;为记忆;为输出;为隐藏状态;为非线性转换函数;为输入层到隐藏层的权重;为隐层到隐层的权重;为隐层到输出层的权重。图3-7LSTM记忆模块的结构图不过,随着相关研究的不断发展,网络结构不断加深,RNN在训练和测试过程中易出现梯度消失等问题。继续应用随机梯度下降法无法达到对RNN很好的训练效果,所以,有必要改变其结构来完善缺陷。为了解决上述问题,通过在RNN中添加长短时记忆模块,以实现对长时间或短时间情况下值的记忆。以上改进后的网络即长短时记忆神经网络(LSTM),其是递归神经网络的一种,主要用来改变RNN在训练上的不足以及存在的梯度消失等问题[33]。LSTM的网络结构与普通递归神经网络的结构类似,都是由输入层、隐含层和输出层组成。LSTM记忆模块的结构如图3-7所示。LSTM神经网络能够“记住”过去的所有知识,并“忘记”不相关的数据,通过引入不同作用的控制门来完成此操作。每个LSTM循环单元还维护一个内部单元状态向量,该向量在概念上描述了先前LSTM循环单元选择保留的信息。在LSTM神经网络的控制门中,一个是遗忘门,它确定在多大程度上忘记先前的数据;另一个是输入门,它确定要写入内部单元状态的信息范围。同时,LSTM还用输出门确定从当前内部单元状态生成什么输出。图中、分别代表输入神经元和输出神经元,M代表记忆神经元,、、分别代表输入门、输出门和遗忘门及其计算方法。如果模型的输入长度为,输入序列为,在时刻时,第层的第个记忆模块的状态可用以下公式表示:(3-9)(3-10)(3-11)(3-12)(3-13) )(3-14)1.2.2长短时记忆神经网络训练过程LSTM的训练同样分为两个阶段,即前向传播阶段和反向传播阶段。其主要步骤如下:(1)将网络进行权值的初始化;(2)将每个神经元按从前往后的顺序进行计算,获取输出值,对于LSTM来说,即、、、、;(3)求出网络输出值与目标值输出值之间的误差偏量;(4)如果偏量超出允许范围,则对每个神经元从后往前进行计算,得到误差项值。此时的计算过程包括两个方面:一是对时间的计算,即从当前t时刻开始,反向计算每个时刻的误差项;二是对网络层的计算,向上逐层传播得到的误差项;(5)按照上步得到的误差项,计算更新网络每个神经元权重的梯度。(6)误差达到允许范围,训练结束。1.3故障诊断流程的设计基于深度学习的万能式断路器故障诊断实验研究,首先需要用大量数据训练模型,模型符合要求后进行测试调整,最后确定模型,进行故障诊断。1.3节主要介绍基于这两种神经网络的故障诊断流程。1.1.1基于1DCNN的断路器分合闸附件故障诊断流程基于1DCNN的断路器分合闸附件故障诊断流程如图3-6所示[34]。具体步骤如下:将通过分合闸附件故障实验系统采集的840组电流信号样本按不同比例构建模型输入数据集,用于模型的训练和测试;(2)设计构建1DCNN模型并初步设定其网络层参数和训练参数,初始化其权值和偏置;(3)利用训练样本训练搭建好的模型,通过改动参数进行调试,直到模型收敛;(4)输入测试样本,根据测试集精度判断模型是否满足诊断要求;(5)模型符合要求后将模型输出用于断路器分合闸附件故障智能诊断。图3-8基于1DCNN的万能式断路器分合闸附件故障诊断流程1.1.2基于LSTM的断路器分合闸附件故障诊断流程基于LSTM的断路器分合闸附件故障诊断流程如图3-9所示[35]。其诊断流程类似于1DCNN模型诊断流程。首先,获取断路器分合闸线圈电流信号数据样本,并将其按不同比例划分用来对模型分别进行训练和测试。然后,利用训练样本训练LSTM模型。其次,通过调试参数使模型输出的训练集精度趋近于1.0。最后,利用测试集样本测试训练好的模型。若模型符合诊断要求,将其输出用于分合闸附件故障诊断;若模型不符合诊断要求,则更改模型参数后,重复以上过程,直至模型符合诊断要求。图3-9基于1DCNN的万能式断路器分合闸附件故障诊断流程1.4故障诊断模型的构建本文在1.3节中分别介绍了基于一维卷积神经网络和长短时记忆神经网络的故障诊断流程设计。在1.4节中分别介绍基于这两种神经网络的故障诊断模型的构建和调试过程。1.4.1模型的构建环境本文采用Python语言构建实验模型。Python语言在人工智能领域发挥了重要作用,为了满足人工智能的即时性需求,Python提供了许多AI库以及深度学习库,其语法简单、文档优质,而且具备多重特性。Python语言在人工智能领域主要被用于深度学习,其主要是应用Scikit-Learn等工具包中的计算类库实现深度学习,库中的数据信息十分丰富,囊括了数据预处理、降维等深度学习中常用的计算方法与模式。此外,应用Python语言进行机器学习开发时,可借助可视化工具等帮助机器高效处理学习任务,从而达到用户分类等目的,在短期内提升功能性与实用性。本实验主要应用Keras深度学习库,Keras是一个高层神经网络库,由Python编写而成并基于Tensorflow和Theano,支持CNN和RNN,或二者的结合。Keras包括模型、网络层、数据预处理等模块,其中,模型包括序贯模型、函数式模型等;网络层包括常用层、卷积层、池化层、循环层等;数据预处理包括序列预处理、文本预处理、图片预处理等。利用Keras搭建一个神经网络十分简便,首先创建模型实例,然后通过.add()指令堆叠一些网络层,就完成了对模型的搭建。完成搭建后需要使用.compile指令编译模型。完成编译后,对网络在训练数据上按batch进行一定迭代次数的训练。模型符合要求后,使用训练好的模型对测试集数据进行预测。1.4.2基于1DCNN的分合闸附件故障诊断模型的构建为了有效提取数据特征,本文设计搭建一种3个卷积层和池化层交替出现的故障诊断模型[36]。利用Keras深度学习库构建模型,构建过程如图3-10所示。图3-10诊断模型的构建过程首先对卷积层和池化层进行定义,包括卷积核数目、尺寸,卷积层步长,池化层核尺寸等。然后导入Keras中的序贯模型,创建模型框架。导入后开始搭建卷积层和池化层,利用.add()指令,通过Conv1D函数对卷积层参数进行设定,通过Activation函数对激活函数进行设定,通过Maxpolling1D函数对池化层参数进行设定。搭建好三组交替出现的卷积层和池化层后,通过Flatten函数对数据进行展平,然后再搭建全连接层和输出层并通过Dense函数对全连接层和输出层参数进行设定。至此,一维卷积神经网络层搭建完成。网络层搭建完成后,定义损失函数用来估量模型的预测值与真实值的不一致程度。然后进行模型训练参数的设定,设定epochs为35,batch_size为14。其中,batch_size是计算效率和内存容量之间的平衡参数,若batch_size太小,模型训练难以收敛,造成欠拟合现象。若增大batch_size,会加快处理速度,但对计算设备的内存需求也相应增大。设定好模型训练的参数后,编写模型评估的程序,用来判断收敛后的模型是否满足诊断要求,利用print输出测试集上的损失和精度。测试集上的精度即故障诊断率。表3-11DCNN网络模型参数设定表编号网络结构卷积核大小步长卷积核数目1卷积层6312池化层22122卷积层3112池化层22123卷积层3124池化层22245全连接层节点数:300激活函数:ReLU6Softmax输出节点数:6激活函数:Softmax模型构建完成后进行调试,通过修改参数使模型达到诊断要求。经过大量的实验调试后,模型参数设定为表3-1所示时,具有较好的诊断效果。在网络层参数设定中,第一层卷积层卷积核数目设定为12,卷积核尺寸设定为6,步长设定为3。第一层池化层核尺寸设定为2,采用最大池化方式,经过池化后,序列特征维度变为原来的二分之一。第二层卷积层卷积核尺寸设定为3,步长设定为1,其他与第一层具有相同配置。第三层卷积层卷积核数目设定为24,其他配置与第二层不变。池化层配置不变。在第三层卷积层后有一层平铺层,用来连接池化层和全连接层。全连接层设定节点数300,激活函数采用ReLU函数。输出层设定节点数6,激活函数采用Softmax函数。1.4.3基于LSTM的分合闸附件故障诊断模型的构建基于LSTM的故障诊断模型与基于1DCNN的故障诊断模型构建过程相似,都是利用Keras深度学习库。其框架如图3-11所示。首先导入Keras库中相关模块,创建框架模型[37]。其次添加网络层,主要包括LSTM隐藏层、平铺层和输出层。LSTM隐藏层中包含输出维度(filters)、激活函数(activation)、用于循环时间步的激活函数(recurrent_activation)、用于输入线性变换的权值矩阵的初始化器(kernel_initializer)、用于循环层状态线性转换的权值矩阵初始化器(recurrent_initializer)等。其中,activation设定为Tanh函数,recurrent_activation设定为分段线性近似sigmoid函数。kernel_initializer设定为glorot_uniform,以0为中心,标准差如式(3-15)所示。recurrent_initializer设定为orthogonal,能够随机生成一个正交矩阵。LSTM隐藏层构建好后添加Flatten层展平,最后经过全连接层及softmax函数输出识别结果。(3-15)式中,为权值张量中的输入单位的数量,为权值张量中的输出单位的数量。图3-11基于LSTM的故障诊断模型框架网络层构建完成后,定义损失函数,设定模型训练参数和评估参数。其中,损失函数采用categorical_crossentropy交叉熵损失函数。同时,应用Adam优化算法。训练参数包括训练次数(epochs)和批尺寸(batch_size),模型评估后输出测试集上的损失和精度。对LSTM模型经过不同比例训练样本的反复训练后,当LSTM隐藏层filters设定为32,训练参数epochs设定为30,batch_size设定为14时,模型训练速度和诊断精度较为理想。1.5故障诊断模型实验结果分析在1.4节分别介绍了基于两种神经网络模型的构建环境和过程,以及对模型的调试。所以,在1.5节中主要分别介绍两种模型的测试结果,同时从识别精度,训练速度,模型稳定性等多个方面作对比分析,选出适合的分合闸附件故障诊断方法并作进一步的改进和优化。1.5.1基于1DCNN的分合闸附件故障诊断模型实验结果本实验共模拟万能式断路器分合闸附件交流供电电压相角为0°、30°、60°、90°、120°、150°、180°时的6种工作状态。每种工作状态在每个相位下各采集20组实验样本,共采集840组实验样本。首先,将840组实验样本按照6:4、7:3、8:2、9:1四种比例分为训练样本和测试样本,并分别构建输入数据集。然后,将4种比例下的数据集分别输入1.4.2节中构建和调试好的模型中进行测试实验。为了提高实验的准确性和可信性,每种比例数据集下进行重复实验20次。测试结果如图3-12、3-13所示。图3-12不同比例训练样本下1DCNN模型各次测试故障识别率图3-13不同比例训练样本下1DCNN模型平均故障识别率由图3-12和图3-13可知,当训练样本占比60%时,20次重复实验平均故障识别率为77.82%;当训练样本占比90%时,20次重复实验平均故障识别率为84.62%。并且,随着训练样本的增加,图3-12中折线的平滑性增强。所以,测试结果显示,训练样本和测试样本比例不同时,1DCNN模型的故障识别率和稳定性也不同,且随着训练样本占比的增大,其识别率逐渐提高,稳定性也逐渐增强。图3-14训练样本占比80%时1DCNN模型训练和测试集上图3-15训练样本占比80%时1DCNN模型训练和测试集上的损失随机选取训练样本占比80%的一次实验为例进行详细的分析。其训练集和测试集上的精度和损失分别如图3-14和3-15所示。模型经过35次训练后,训练集精度接近于1.0,测试集精度接近于0.8,训练集损失接近于0.45,测试集损失接近于0.8。由以上数据可知,1DCNN模型训练效果较好,但拟合效果不佳。图3-16训练样本占比80%时1DCNN模型测试样本识别效果为了更加直观清楚地反映测试集中不同类别的识别效果,引入混淆矩阵,如图3-16所示。合闸附件正常状态及分闸附件正常和故障状态时,1DCNN模型有较好的识别效果,均为100%。而在合闸附件故障状态时,识别效果较差,分别是64%和50%。1.5.2基于LSTM的分合闸附件故障诊断模型实验结果本实验同样应用840组实验样本,按训练样本占比60%、70%、80%、90%的比例构建4种输入数据集。每种比例重复实验20次。实验结果如图3-17、3-18所示。图3-17不同比例训练样本下LSTM模型各次测试故障识别率图3-18不同比例训练样本下LSTM模型平均故障识别率由图3-17和图3-18可知,当训练样本占比60%时,20次重复实验平均故障识别率为71.20%;当训练样本占比90%时,20次重复实验平均故障识别率为80.18%。随着训练样本的增加,LSTM模型故障识别率逐渐提高。但是,图3-17中曲线的平滑性较差,LSTM模型输出结果不稳定,故障识别率忽高忽低。图3-19训练样本占比80%时LSTM模型训练和测试集上的精度图3-20训练样本占比80%时LSTM模型训练和测试集上的损失随机选取训练样本占比80%的一次实验为例进行详细的分析。其训练集和测试集上的精度和损失分别如图3-19和3-20所示。模型经过30次训练后,训练集的精度曲线接近1.0。但是,测试集曲线波动较大,模型稳定性较差。此外,模型训练和测试精度曲线拟合效果较差,总体故障识别率较低。图3-21训练样本占比80%时LSTM模型测试样本识别效果训练样本占比80%时LSTM模型测试样本各个类别的识别效果如图3-21所示。分闸附件正常状态和故障状态识别效果较好,识别率均达到90%以上,其中,分闸附件顶杆阻力异常故障状态识别率达到100%。但是,合闸附件正常及故障状态识别效果较差,合闸附件正常状态识别率为79%,铁芯卡涩故障状态识别率为60%。尤其是机械结构卡涩故障状态,其识别率仅为29%,模型对此工作状态识别毫无作用。1.5.3两种诊断模型实验结果对比分析在1.5.1节和1.5.2节中分别介绍了1DCNN模型和LSTM模型的实验结果,在本节中就以上结果分别从识别率、训练速度、拟合效果三个方面进行比较分析,选出适合于断路器分合闸附件故障的智能诊断方法。表3-1两种诊断模型不同比例训练样本下平均故障识别率诊断模型60%训练样本70%训练样本80%训练样本90%训练样本1DCNN模型77.82%80.05%82.95%84.62%LSTM模型71.20%75.55%78.12%80.18%两种诊断模型在不同比例训练样本下的平均故障识别率如表3-1所示,两种模型的故障识别率均随着训练样本的增加而提高。但是,相同比例训练样本下,1DCNN模型的总体平均故障识别率比LSTM模型高4%—5%。而且,1DCNN模型比LSTM模型稳定性更强。表3-2两种诊断模型不同类别下平均故障识别率诊断模型类别0类别1类别2类别3类别4类别51DCNN模型100%64%50%100%100%100%LSTM模型79%60%29%98%98%100%两种诊断模

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论