人工神经网络在电能计量综合误差分析中的应用.docx_第1页
人工神经网络在电能计量综合误差分析中的应用.docx_第2页
人工神经网络在电能计量综合误差分析中的应用.docx_第3页
人工神经网络在电能计量综合误差分析中的应用.docx_第4页
人工神经网络在电能计量综合误差分析中的应用.docx_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工神经网络在电能计量综合误差分析中 的应用 (呼伦贝尔学院,内蒙古 海拉尔 021008) 摘 要:文章尝试将 ANN 技术引入电能计量综合系统误 差的分析中,并与以前用的数学模型方法进行了对比。 关键词:人工神经网络;电能计量;误差 中图分类号:TM933.4 文献标识码:A 文章编号: 10076921(XX)07008602 能计量的综合误差是下述几项误差的代数和:电能 表的误差 w。电流互感器的合成误差 LH。电压回 路二次导线压降及继电器接触电阻引起的计量误差 r。 电能计量的综合误差 可用下式表达: =w+LH+YH+r 按照数学公式进行系统误差推算 对于已知的实验点来说结果比较准确,而对于未知的试验 点需要进行插值拟合计算,算法更加难以摸索。 人工神经网络技术的发展,尤其是 BP 算法的提出,使 人工神经网络技术从理论研究转向实际应用,目前已广泛 应用于各个工程技术领域。 本文作者尝试将 ANN 技术引入系统综合误差的分析, 并与以前的数学模型方法进行了对比。 1 BP 网的网络模型 BP 网络的模型(两层)如图 1 所示。 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 对上述模型的的描述如下:X=x1,x2,xixnT 为 网络的输入向量。Vk=vk1,vk2vkivkn为隐层第 k 个节点和输入层之间的权向量(vki 就是网络第 i 个 输入节点到隐层第 k 个节点的连接权值),可以看出从输入 层到隐层之间的权值可表示为 V=V1,v2VkVq T。T=t1,t2tktqT 为隐层的净输入, Z=Z1,z2zkzqT 为隐层的输出,同时也作为输出 层的输入。Wj=wj1,wj2wjkwjq 为隐层到输出 层第 j 个节点的权值向量,所以隐层到输出层之间的连接 权值矩阵为 W=W1,WwWjwmT,S=s1,s2sjsm T 为输出层的净输入,Y=y1,y2yjymT。 2 BP 算法的改进 2.1 学习率的调整 标准的 BP 算法存在着收敛速度慢的问题,为了解决这 个问题,有必要对该算法进行改进。本节讨论一种通过学 习速率的调整以提高收敛速度的方法。 在 BP 算法中,连接权的调整决定于梯度和学习速率, 但是在上述基本的 BP 算法中,学习速率是不变的。实际上 学习速率对收敛速度的影响很大。对于固定学习速率的 BP 算法来说,学习速率的选取是很困难的,如果学习速率选 得小了,则显然收敛速度会很慢,但如果把学习速率选得 大了,又会导致网络训练过程的振荡,同样会降低网络的 收敛速度。事实上我们可以通过对它的在线调整,大大地 提高收敛速度。 学习速率的调整原则是使它在每一步保持尽可能大的 值,而又不至于使学习过程中产生振荡。学习速率可以根 据误差变化的信息和误差函数对连接权梯度变化的信息进 行启发式调整,也可以根据误差函数对学习速率的梯度直 接进行调整。 首先介绍根据总误差变化的信息对学习速率进行启发 式调整的方法,其规则是: 若总误差 E 减少(即新误差比老误差小),则学习速 率增加。 若总误差 E 增加(即新误差比老误差大),则学习速 率减小。当新误差与老误差之比超过一定值,则学习速率 快速下降。 上述规则可用如下迭代方程来表示: 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 要求式中参数 1、1、k1,典型的取值是 =1.05、=0.7、k=1.04。 上述方法可以在学习过程的每一步进行学习速率的调 整,但对于同一步中的不同权值却仍然采用相同的学习速 率。由于误差面的复杂性,这显然不符合实际情况。为此 我们可以采用学习速率的局部调整方法来代替上述的全局 调整方法以对网络作进一步改善。 2.2 动量法 BP 网主要存在着收敛速度慢和容易陷入局部最小点的 问题,通过上述的学习速率的动态调整,大大地加速了网 络的收敛速度。本节介绍的动量法主要解决 BP 网存在的另 一个问题,即使网络能跳出局部最小点,同时在一定程度 上也能加快网络的收敛速度。 所谓动量法就是在原有权值修改公式的基础上再加上 一个动量项,事实上该方法的道理很简单,局部最小点的 跳出可以利用权值修改的贯性来实现。权值的修改可用下 式表示: 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 上式中 mcwjk(n-1)即为动量项,其中称 mc 为动量系 数,显然要求 0mc1。 3 基于 BP 网的系统综合误差分析 3.1 网络设计 在这一部分里,给出文章所建立的用于电能表远程检 定系统综合误差分析的人工神经网络的层数、传递函数、 输入层及输出层中节点数目的确定过程。 3.1.1 人工神经网络的层数 研究表明,采用一个隐层的 BP 网络就可以实现以任意 精度逼近任一连续映射函数,因此,在本文中采用单隐层 前向神经网络来进行系统综合误差分析。 3.1.2 传递函数的选取 由于 S 形函数既具有完成分类所需的非线性特性,又 具有可以微分的特性,同时,S 形函数也比较接近于人脑神 经元的输入输出特性,具有更好的仿生效果,因此, 采用 S 形函数来作为神经元的传递函数。S 形函数的表达式 为: 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 3.1.3 网络的输入与输出 以对系统综合误差影响较大的各个因素:标准电能表 的误差、A 相 C 相 CT 的比差和角差以及电压回路压降引起 的误差作为网络的输入信号,所以网络的输入结点数暂定 为 6。 神经网络的输出层节点的数目确定为一个,即系统的 综合误差。 3.1.4 隐层节点数的选择 神经网络中隐含层节点的数目目前还没有很好的方法 来确定。一般来说,隐含层节点数与隐含层的层数有关。 层数增加时,函数映射复杂性增加,从而有利于减小隐含 层节点数,但收敛速度可能降低。同时,由于只要采用三 层神经网络,而且对各层神经元的数目不加限制,则可以 实现以任意精度逼近任一连续映射函数,因此在前文中已 经确定本文所建立的神经网络模型的结构为三层前向神经 网络。针对这种情况,当隐含层的层数确定下来,那么隐 含层节点数越多,函数映射复杂性越大,对于同一问题, 隐含层节点数目多,局部极小点减少,网络容易找到最优 点,但隐含层中的节点数超过一定限度时,收敛速度急剧 下降。采用几 何金字塔规则结合试验的方法来选择隐含层节点的数 目,在对不同隐含层节点数的网络进行训练后,得到如表 1 所示的结果。本文中选择隐含层节点数为 3。 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 3.2 训练过程 下面以第三路有功电能表测试系统为例分析装置的综 合误差。 分别以 cos=1 时系统的实测综合误差与对应的 6 个 影响因素值为训练样本的期望输出和样本输入来训练模型。 相关误差数据如下表所示。 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 3.3 结果分析 网络训练结果与按推导公式计算后得到的系统综合误 差对比列表如表 5 所示。 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 从表中看出,8 个训练样本的模拟输出与期望输出的相 对误差均在4.8%的范围内,模型的收敛效果较好。能够 满足对系统综合误差分析的需求。 选取负荷点 50%、70%、90%对应的数据作为测试集,BP 算法测试集运行结果如表 6 所示。 740)this.width=740“ border=undefined onmousewheel=“return zoom_img(event,this)“ 测试结果表明,3 个校核样本的模拟输出与期望输出的 相对误差均小于10%,比较令人满意,表明模型具有较好 的适用性。 3.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论