(冶金工程专业论文)转炉炼钢终点准动态控制系统研究.pdf_第1页
(冶金工程专业论文)转炉炼钢终点准动态控制系统研究.pdf_第2页
(冶金工程专业论文)转炉炼钢终点准动态控制系统研究.pdf_第3页
(冶金工程专业论文)转炉炼钢终点准动态控制系统研究.pdf_第4页
(冶金工程专业论文)转炉炼钢终点准动态控制系统研究.pdf_第5页
已阅读5页,还剩71页未读 继续免费阅读

(冶金工程专业论文)转炉炼钢终点准动态控制系统研究.pdf.pdf 免费下载

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

中文摘要 摘要 对转炉炼钢一次倒炉的准确预报有助于提高转炉终点控制能力、缩短冶炼周 期、降低冶炼成本、提高钢水质量,实现转炉工序以及全厂生产计划、调度的标 准化操作。本文旨在将b p 神经网络和遗传算法进行有机结合,以寻求更好的转炉 炼钢一次倒炉预测的准动态控制模型,研究工作在理论和实际应用方面都具有重 要的意义。 首先分析了转炉控制技术与终点控制现状,介绍了b p 神经网络的原理和算法, 针对b p 神经网络容易陷入局部最优与“过拟合”等问题,采用了引入验证样本的 改进b p 神经网络学习算法,以及引入验证样本的改进b p g a 混合学习算法。对 b p 神经网络以及遗传算法的各种组合算法的对比数值试验表明:引入验证样本的 学习算法能有效地改善神经网络模型的泛化能力:基于b p g a 混合学习算法的人 工神经网络预测模型在预测命中率和学习效率等方面具有较好的性能。 通过分析转炉炼钢工艺特点、自动化现状及终点影响因素,在检测手段受限的 情况下,以提高中小型转炉一次倒炉的熔池成分和温度命中率、减少倒炉次数、 实现标准化操作、提高转炉控制水平为目标,根据历史数据分钢种在冶炼过程的 不同时刻建立初始加入的铁水和半钢温度、成分和重量、吹炼模式、供氧模式、 原料和辅料加入模式与一次倒炉熔池成分、温度以及一次倒炉时间之间的关系, 在吹炼过程中依据冶炼初始条件和当前冶炼进度定时对一次倒炉熔池成分、温度 和一次倒炉时间做出适时预测。在此基础上,用所建立的模型对攀钢提钒炼钢厂 不同转炉、不同钢种类别的一次倒炉 c 】、温度和一次倒炉时间进行了离线检验。 实例研究结果表明:在预测精度为一次倒炉温度i a 卅 1 5 、一次倒炉碳含量 恤d 郢0 2 、一次倒炉时间i 纠s 1r a i n 的情况下,一次倒炉碳、温度同时命中率和一 次倒炉时间一致率对l 群转炉以s t b 3 2 为主的一系列钢的平均值达到了4 3 0 和 8 0 1 ,对3 辩专炉以u 7 5 v 为主的一系列钢的平均值达到了4 5 4 和7 9 1 。若以 对应钢种冶炼的工艺标准对模型测试结果进行评判时,其命中率均优于同期人工 一次倒炉合格率。 关键词:转炉炼钢,终点控制,一次倒炉,b p 神经网络,遗传算法 英文摘要 a b s t r a c t i ti sf i l li m p o r t a n ta p p r o a c ht oi m p r o v et h ec o n t r o lf o re n d - p o i n to fl dc o n v e n c r : s h o r t e nt h es m e l tt i m e so fs t e e l m a k i n g , d e c r e a s et h es m e l tc o s t , i m p r o v et h eq u a l i t yo f m o l t e ns t e e l ,a e h i c - c et h es t a n d a r d i z e do p e r a t i o nf o rl dc o n v e r t o rp r o c e s sa n d p r o d u c t i o np l a n n i n gb yf o r e c a s t i n gt h ef i r s tt u r n i n gd o w n t h et h e s i sa i m s a tt h e i n t e g r a t i o no ft h eb pn 既i i - f l ln e t w o r ka n dg e n e t i ca l g o r i t h m t ob u i l dt h eb e t t e r q u a s i - d y n a m i cm o d e lf o rf o r e c a s t i n gt h ec 印慨i nm o l t e ns t e e l t e m p e r a t u r eo fl i q u i d s t e e la n dt i m ea tf i r s tt l m a i n gd o w n f i r s t l y , a d v a n c ei nl d c o n v e r t e rc o n t r o lt e c h n o l o g ya n de n d - p o i n tc o n t r o lh a sb e e n a n a l y z e d t h et h e o r ya n da r i t h m e t i co fb pn e u r a ln e t w o r kh a sa l s ob e e ni n t r o d u c e d f u r t h e r m o r e ,t h ei m p r o v e db pn e u l a ln e t w o r kt r a i n i n ga r i t h m e t i ca n dh y b r i da l g o r i t h m i n t e g r a t i n gb pa n dg ab a s e do nv a l i d a t i o ns a m p l eh a sb e e np r e s e n t e d ,w i t hr e s p e c tt o t h ei * c a s o i i so fb pn e u r a ln e t w o r kw h i e l lf a l i so f t e ni n t ol o c a lm i n i m i z a t i o na n do v e l f i t t h er e s u l t ss h o wt h a tt h et r a i n i n ga r i t h m e t i cb a s eo nv a l i d a t i o ns a m p l ec a ni m p r o v et h o g e n e r a l i z a t i o na b i l i t yo fn e u r a ln e t w o r k t h eh y b r i da l g o r i t h mb a s e do nb pa n dg a a l g o r i t h mw i mg e n e r a l i z a t i o na b i l i t ya n dr a p i dl o c a lr e s e a r c h i n ga b i l i t yi sm o l e e f f i c i e n t t h a nb pa l g o r i t h mo nt r a i n i n gn e u r a ln e t w o r k i nt h ep a p e r , t h ef e a t u r e sa n dp r e s e n ts t a t eo fa u t o m a t i o no fl dc o l l v c l t e r s t e e l m a k i n g , t h et e e l a n o l o g i e a lf a c t o r st h a te f f e c to nl dc o n v e r t e rs t e e l m a k i n gp r o c e s s h a v eb e e nd i s c u s s e di nd e t a i l a i m i n ga tt h ep r e s e n ts t a t eo fr e s t r i c t e dd e t e c t i o n e q u i p m e n ta n dl o w e rp e r c e n to fp a s sa tf i r s tt u m i n gd o w nf o rm e d i u ma n d s m a l ls i z e d l dc o n v e r t e l ) t h em o d e lb a s e do nt h eh i s t o r i c a lp r o c e s sd a t ah a v eb u i l tt h er e l a t i o n b e t w e e ni n p u tp a r a m e t e r s ,i n e l u d i n gi n i t i a lt e m p e r a t u r e ,c o m p o n e n ta n dw e i g h to f m o l t e ni r o n , t h eb l o w i n gm o d ea n do x y g e ns u p p l ym o d e ,i n p u tm o d e so ff e e da n d a c c e s s 嘶鹤a n do u t p u tp a r a m e t e r s , i n c l u d i n gc o m p o n e n t , t e m p e r a t u r eo fl i q u i ds t e e l a n dt i m ea tf i r s tt u r n i n gd o w n , f o rm a n yt y p e so fs t e e li nt h ec o n v e r t i n gp r o c e s s a c c o r d i n gt oi n i t i a lc o n d i t i o na n dt h eb l o w i n gs c h e d u l e , t h ec l l l b o ni nm o l t e ns t e e l , t e m p e r a t u r eo fl i q u i ds t e e la n dt i m ea tf i r s tt u r n i n gd o w n nb ep r e d i c t e di nt h e d i f f e r e n tt i m eo f c o n v e r t i n gp r o c e s s f u l t h c r m o l - e ) t h eo f f i i n ep r e d i c t i o no f t e m p e r a t u r e , c l t l a o o ne o n t e r l to fl i q u i ds t e e la n dt i m ea tf i r s tt u m i n gd o w nh a v eb e e nf i n i s h e df o r d i f f e r e n tl do , o l l v e t t e l sa n ds t e e lt y p ci nt h ev a n a d i u m - e x t r a c t i n ga n ds t e e l m a k i n gp l a n t 0 f p i s c 0 重庆大学硕士学位论文 t h em o d e lf o rf o r e e a s g n gt h et e m p e r a t u r ea n dc a r b o ni nm o l t e nm e t a la tf i r s t t u m i n gd o w n h a sb e e nt e s t e db yu s i n gt w ok i n d so f s t e e la ta c c u r a c yo fi a c i _ 。力 【毛m x 曲 其中x 一为样本集中该变量的最大值为样本集中该变量的最小取值,x 为 变量的一个实际值,t 为标准化后的值。 因为对数据进行了标准化过程处理,对神经网络的输出结果必须进行相反的 处理,即将输出值还原为原量纲值,即: x = x m i m + t g 一一x 。) ( 3 3 ) 重庆大学硕士学位论文 3 3 b p 神经网络原理及算法描述 3 3 1b p 神经网络特点 经典的预测多以线性预测为主,而实际应用中,需要建模或预测的多为非线 性动态系统;神经网络理论的产生为非线性系统的建模与预测研究开拓了广阔的 视野。其基本思想是从仿生学的角度对人脑的神经系统进行模拟,使机器具有类 似人脑的感知、学习和推理能力。 人工神经网络各神经元问的连接权是存储信息和处理信息的关键参数,各种 学习算法的不同特点都反映在如何调整权值和阕值上。网络学习的过程,就是网 络通过自组织来调整权值和阈值以达到所期望目的的自适应过程。b p 模型是一种 用于前向多层神经网络的反向传播学习算法,由d r u m e l h a t t 和m c c l e l l a n d 6 2 】于 1 9 8 5 年提出,并在之后得到广泛的重视和应用,特别是在智能计算、智能控制【6 3 】、 模式识别、图像处理、预测 6 4 - 6 6 1 、组合优化【6 刀和系统辩识 6 8 1 等领域得到广泛应用。 b p 网络应建模的基本原理为:利用静态的多层前向神经网络建立系统模型,本质 上说是基于网络逼近能力,通过学习获知系统差分方程中的未知非线性函数。对 处理非线性系统问题,b p 神经网络具有以下的优点 6 0 - 6 q : 1 ) 只要有足够多的隐层和隐层结点,b p 神经网络可以逼近任意复杂的非线 性映射关系; 2 ) 能够学习与适应不确定性系统的动态特性,仿效人类智能实现对不确定系 统的控制; 3 ) b p 神经网络的学习算法属于全局逼近算法,具有较强的泛化能力; 4 ) b p 神经网络输入输出之间所有定量或定性的信息都等势分布在网络的各 神经元中价别神经元的损坏只对输入输出关系有较小的影响,因而其既有很强的 鲁棒性和容错性; 5 ) 采用并行分布处理的方法,使得快速进行大量运算成为可能。 3 3 2b p 神经网络结构 b p 神经网络是基于误差反向传播( e r r o rb a c kp r o p a g a t i o n ) 算法的多层前馈 网络( m u l t i p l e - l a y e r f e e df o r w a r dn e t w o r k ) 【翎,其基本思想是最小二乘算法。它 采用梯度搜索技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。 b p 神经网络的结构如图3 1 所示,有m 令输入结点,输入层结点的输出等于 其输入。输出层有个输出结点,网络的隐含层有q 个结点,嘞是输入层和隐层 结点之间的连接权值。w 。是隐含层和输出层之问的连接权值,隐含层和输出层结 点的输入是前一层结点的输出的加权和,每个结点的激励程度由它的激发函数来 决定。 3 转炉终点预测的准动态控制模型算法研究 输 入 模 式 误差反传f 学习算法) 输入层隐含层 输出层 图3 1b p 神经网络结构 f i 9 3 1t h es n c n l r e o f b p n e u r a l n e t w o r k 目 标 输 出 3 3 3b p 神经网络学习过程 b p 神经网络的学习过程由正向计算和反向传播组成。在正向计算过程中,输 入信息从输入层经隐含层逐层处理,并传向输出层,每层神经元的状态只影响下 一层神经元的状态。如果在输出层不能得到期望的输出,则转入反向传播,计算 输出与实际输出偏差构出的误差函数,用梯度下降法调节网络权值。即 烈奶- - 寺r ( t , 一d d ) 2 ( 3 4 ) i :+ ,7 f _ 要1 ( 3 5 ) ko 使误差e ( m + ,) 减小鲫0 】;其中,、d 分别为第p 个样本目标输出和网络的计 算输出。下面针对三层b p 网络进行输入输出计算描述。 计算各层结点输出 输入层结点输入l 取经过【o ,1 】标准化后样本输入数据与单元对应的阈值b 之 和作为每个单元的净输入,然后将一个激励函数作用于它。传统b p 神经网络用 s i g m o i d 函数表现单元代表的神经元活性,即对给定单元f 的净输入l ,则单元珀勺 输出口用下式计算: 1 q = - 二i ( 3 6 ) l 十e 隐含层与输出层的每个单元的净输入用其输入的线性组合计算。事实上,单 元的输入是连接它的前一层的单元的输出,因而,隐含层与输出层的输入可采用 连接该单元的每个输入的加权和表示。对于给定隐含层或输出层的单元,到单元 ,的净输入,是 重庆大学硕士学位论文 i = 峋q + 巳 ( 3 7 ) l 其中,是上一层的单元,到单元的连接的权;q 是上一层的单元的输出;而巴 是单元的阂值,用来改变单元的活性。 修正权值阈值 神经网络权值修正采用了误差反向传播技术,即通过更新权和闭值以反映网 络预测的误差,并向后传播误差。对于输出层单元k ,向后传播误差e r r k 用 e r r k = o k ( 1 一o k ) ( 瓦一o k ) ( 3 8 ) 计算,其中q 是单元k 的网络输出,而瓦是七基于给定训练样本标准化后的实际 输出。对应的输出层与隐含层间的权值以及输出层的阈值的更新为: a = ( , 1 ) e r r k o j ,= + 吨 ( 3 9 ) 吼= ( r ) e r r t ,幺= 幺+ a 吼 ( 3 1 0 ) 式( 3 9 ) 、( 3 1 0 ) 中w 。表示隐含层某结点与输出层某结点k 间的权值调整量,叩表 征了网络的学习速率,以表示与输出层某结点七的阈值调整量。 为计算输入层或隐含层单元- ,的误差,需考虑下层中连接,的单元的误差加 权和。输入层或隐含层单元_ ,的误差计算式如下: e r r j = d ,( 1 o j ) 占以 ( 3 1 1 ) t 其中,式中m ,。为下一较高层单元k 到单元的连接权,点饥为单元七的误差。对应 的隐含层与输出层间的权值以及隐含层的阈值的更新为: 幽t = ( r ) e r r j o l ,w q = w 9 + 嘶h 醐i = ( r ) e r r j te i = 9 i + 8 j ( 3 1 2 ) ( 3 1 3 ) 3 3 4b p 神经网络算法结构 b p 神经网络的学习方式主要可分为逐个样本学习的随机学习和批量学习。随 机学习是每选取一个样本输入网络后都对网络的权值、阈值进行更新;批量学习 是所有的样本都先输入网络并将它们对应的权值、阈值调整量相加,直至所有样 本计算结束后才开始更新权值、阈值。 神经网络的两种学习方式有各自的优缺点。在逐个样本学习的随机学习中, 一个权值、阈值的更新可能减少某个单个样本的误差,然而却增加了训练样本集 的总体误差:而批量学习在权值、阈值更新的过程中不会增加训练样本集的总体 误差,但其比逐个样本的随机学习要慢。下面分别给出了基于逐个样本学习和批 量学习的传统b p 神经网络的算法结构。 3 转炉终点预测的准动态控制模型算法研究 算法l ( 逐个样本学习的b p 算法) b e g i n 学习样本大小c 。学习次数k 卸; 设定b p 神经网络结构,初始化权值、闺值; d ow h 池不满足终止条件 f o r ( i = 0 ;i a 根据公式( 3 6 ) ,( 3 7 ) 对第i 个样本傲b p 神经网络正向计算,并由公式( 3 4 ) 计算样本的误差; 用公式( 3 8 ) ,( 3 9 ) 、( 3 1 0 ) 逐个计算输出层与隐含层间的权值以及输出层的 阈值的更新; 用公式( 3 1 1 ) 、( 3 1 2 ) 、( 3 1 3 ) 逐个计算隐含层与输入层间的权值以及隐含层 的阈值的更新; n e x ti 根据公式( 3 6 ) 、( 3 7 ) 对对n 个样本逐个傲b p 神经网络正向计算,由公式( 3 4 ) 计算样本的误差,并计算总样本的平均误差; 七= 4 - 1 l o o p 保存网络权值、阈值等结构参数 e n d 算法2 d l 匕量学习的b p 算法) : 脚 学习样本大小c ,学习次数k - - o ; 设定b p 神经网络结构,初始化权值、阈值; d ow h i l e 不满足终止条件 厶坳= o ,a & = o ,w 蕾= o ,a 6 0 = 0 ; f o r ( i = o ;i c ) 根据公式( 3 固、( 3 7 ) 对第i 个样本做b p 神经网络正向计算,并由公式( 3 4 ) 计算样本的误差; 用公式a ,i = a + ( 野) e r r k q 、a = a 吼+ 仍) 西分别计算输出层与 隐含层问的权值以及输出层的阈值的累计调整量; 用公式a 峋= 峋+ 仞) q ,巳= 乃+ 0 7 ) 奶分别计算隐含层与输 入层甸的权值以及隐含层的阈值的累计调整量; 重庆大学硕士学位论文 e n d n e x ti m 公式w 球= w 胙+ w 疆,8 t = e k + 厶9 k w v = w v + a w 0 ,e i = 8 j + 厶e j 分别计算网络各结点的权值阈值的更新; 根据公式( 3 6 ) 、( 3 7 ) 对对n 个样本逐个做b p 神经网络正向计算,由公式( 3 4 ) 计算样本的误差,并计算总样本的平均误差; k = k + l l o o p 保存网络权值、阏值等结构参数 3 4 b p 神经网络的算法改进 b p 神经网络得到了广泛的应用,但其自身也存在一些缺陷和不足,主要包括 以下几个方面的问题m 7 2 j : 1 ) 目标函数存在多个极值点,按梯度下降法进行学习,很容易陷入局部极小 值: 2 ) 待寻优的参数多,网络收敛速度慢,并易出现“假饱和”现象; 3 ) 难以确定隐层及隐层结点的数目等参数。目前,如何根据待定的问题来确 定具体的网络结构尚无很好的方法,仍需根据经验来试凑。 针对b p 神经网络在相关领域的研究现状,以及转炉冶炼过程映射关系存在多 个极值的可能,在转炉终点准动态控制模型的研究中,对b p 神经网络算法引入了 的改进策略具体如下文所述。 3 4 1 神经网络权值初始化 b p 算法学习策略表明了权值的变化方向与网络误差对其寻优参数的一阶导数 成正比。而b p 算法采用的是梯度下降法,训练是从某一起始点沿误差函数的斜面 逐渐达到误差的最小值的。即一旦初始值确定之后,就注定了网络的收敛方向, 因此合适的初始权值就显得相当重要。而且训练结束后,网络一般收敛到初值附 近的局部极值,所以选择的初始值将直接影响到此局部极值点处的全局误差与理 想最优点问的差距【翻。在某一给定层上设置权值时,需要从一个均匀分布 一语 w + 筇中选取权值。对于话的取值,如果取得太小,一个隐层单元的溺络激 励将较小,因而只有线性模型将被实现;如果谛太大,隐层单元甚至可能在学习 开始前就达到饱和。 为计算诺,考虑一个隐层单元可以接收d 个输入单元的输入,并假设用相同的 分布,即一个一谛 w + 访范围内的均匀分许,来初始化所有的权值。那么平均起 3 转炉终点预测的准动态控制模型算法研究 来,从方差为1 o 的任意d 个变量作为标准输入,通过这样的权值后的净激活为 训d 。依据常用激励函数的特点,我们希望各单元的净激活限制在一1 n e t + 1 范 围内;因此输入权值应该选取在一1 d w u l d 范围内。对于隐含层到输出层 的权值的讨论相同,即其权值的初始值应该在一l 珂。 w j , 1 以。范围内,i t 为 隐含层单元数【7 。 3 4 2 改进激励函数 网络的拓扑结构和训练数据确定之后,总误差函数占的性质特征就完全由激 励函数决定了。改进激励函数可以改变误差曲面,尽量减少陷入局部极小值的可 能性。 1 b p 神经网络算法的激励函数一般为s i g t a o i d 函数八功= 击,其输出层的 l 十e 反向传播误差e r r 为: e r r = ( d i y f ) 厂( 曲= ( d l 一) ,) + j ,。+ ( 1 - y f ) 0 1 4 ) 式中d ,为输出层第i 个结点的期望输出,y ,为模型实际输出值。 b p 神经瞬络算法主要的学习终止策略是根据反向传递误差e r r 来决定的,即 所有学习样本的误差e r r zo 或e r r 占( 占为设定的系统误差) 。从公式( 3 1 4 ) 可以 发现,当反向传递误差e r r * 0 的原因有两种:d ,一乃* o 或y ,+ ( 1 一只) * 0 。 在b p 神经网络算法学习过程中,理论上所有的学习样本的输出值满足 d ,一y ,* 0 时,b p 神经网络算法逼近全局最小【7 2 彤】。当个别样本的输出值满足 y ,( 1 - y ,) * 0 时,但4 一m 还较大时,b p 神经网络算法将陷入局部极小。因而, 传统b p 神经网络算法以系统反向传递误差e r r 占为学习准则时极容易陷入局部 极小。经研究发现,b p 神经网络算法在学习过程中出现y ,( 1 一儿) * 0 的情况很普 遍,尤其在多输出的b p 神经网络中经常出现这类情况。y ,( 1 一y 。) “0 成为b p 神 经网络算法出现局部极小的主要原因。针对上述问题,研究工作者们对激励函数 做出了多种改进,本文在研究转炉终点预测问题时主要引入的改进描述如下: i fy f 0t h e n f | = d i y | e l s e i f1 一y i 0t h e n ,7 ( 功= 1 一( d ,一乃) e n d i f e n d i f 重庆大学硕士学位论文 3 4 3学习策略的改进 传统b p 神经网络算法在解决复杂的非线性拟合问题时,比较容易出现学习的 “过拟合”现象,导致网络的泛化能力较弱,即网络的测试效果较差。这是由于 在三层神经网络模型在学习过程中实现了一个复杂的判决边界因而推广性很差, 该判别边界过分调谐到特定的训练样本上,而并非实现分布的一般特性。 由于网络权值初始化为较小的值,这些单元执行在它们的线性范围内,整个 网络实现线性判别。随着训练的进行,这些单元的非线性逐渐显现出来,判决边 界变弯。定性地说,在梯度下降完成之前执行“停止训练”可以避免“过拟合”。 实际上针对具体问题很难预先知道学习算法中停止准则的系统误差占的设置。本文 在网络训练过程中,除了选取学习样本和用于测试的测试样本外,还引入了决定 网络停止学习的验证样本,在一定程度上避免网络学习“过拟合”1 7 ”,提高网 络的泛化能力。结合传统基于逐个样本学习的b p 神经网络算法结构,引入验证样 本的b p 神经网络算法结构如下所述( 算法3 ) 。 算法3 ( 基于验证样本逐个样本学习的b p 算法) : b e 咖 学习样本大小n ,验证样本大小肘,学习次数k - - - 0 ; 定义最优神经网络权值、阈值等参致变量b e a t w 、b e s t 一伊; 定义检验样本最小误差m i n e r r = a ( 口为一足够大常数) ; 设定b p 神经网络结构,初始化权值、阈值并赋予b e a t w 、b e a t 一0 ; d ow h i l e 不满足终止条件 f o r g = o ;f 明 根据公式( 3 6 ) 、( 3 7 ) 对第i 个样本做b p 神经网络正向计算,并由公式( 3 1 4 ) 计算样本的误差; 用公式( 3 8 ) 、0 9 ) 、( 3 i o ) i 垂个计算输出层与隐含层间的权值以及输出层的 阈值的更新; 用公式( 3 1 1 ) ,( 3 1 2 ) 、( 3 1 3 ) 逐个计算隐含层与输入层间的权值以及隐含层 的阈值的更新; n e x ti 根据公式( 3 6 ) 、( 3 7 ) 对对n 个学习样本逐个做b p 神经网络正向计算,由公式( 3 4 ) 计算样本的误差,并计算总样本的平均误差; 根据公式( 3 6 ) 、( 3 7 ) 对对m 个验证样本逐个傲b p 神经网络正向计算,由公式( 3 4 ) 计算样本的误差,并计算总样本的平均误差e r r ; 3 转炉终点预测的准动态控制模型算法研究 e n d i fe r r m i n e r rt h e n m i n e r r = e r r ; 将此时的网络权值、阈值等参数赋予b e s t w 、b e s t 一护 e n d i f k = | i + 1 l o o p 保存网络权值、阈值等结构参数b e s t ,、b e a t 口 同样,基于验证样本批量学习的b p 算法( 算法4 ) ,是在传统的批量学习的 b p 算法的基础上引入验证样本的误差变化来确定最佳网络结构参数的选取。 图3 2 给出了引入验证样本的b p 神经网络算法学习过程中训练样本与验证样 本的误差变化曲线。无论采取哪种学习方式,训练样本的误差大体是下降的;而 验证样本误差总是比训练样本误差大,其趋势在开始阶段是下降的,并在其下降 的同时会有较大的波动,当学习时间足够长时,验证样本误差出现增大的趋势。 在引入验证样本的同时,对b p 神经网络算法的学习策略做出了如图3 3 所示的改 进,在给予足够的学习次数或学习时间的情况下,取验证样本在学习过程中误差 达到极小值时对应的网络参数作为网络学习的最终结构参数。 图3 2 网络训练误差与验证误差曲线图 f i g 3 2t h ee f mc u r v eo f t r a i n i n ga n dc e r t i f i c a t i o ni nn l m l r a ln e t w o r kl r a i n i n g 由图3 3 可知,验证样本是没有用来做梯度下降训练的模式,从而可作为仍需 要测试的新模式的间接的代表。验证样本作为网络学习的停止准则可描述为:网 络训练过程中,训练样本上的梯度下降训练在验证样本误差达到极小值时停止学 3 l 重庆大学硕士学位论文 习,并将此时的网络结构参数作为最终结果。引入验证样本的学习策略在一定程 度上能保证网络有较好的测试及应用效果;此外,验证样本的误差评判指标可根 据具体问题求解的需要替换为相关性、相对误差、命中率等其它指标。 图3 3 改进b p 神经网络算法学习策略 f i g3 3t h el e a r n i n gs t r a t e g i e sf o ri m p r o v e db p n e u r a ln e t w o r k 3 4 4b p 算法与遗传算法的结合 遗传算法的概述 遗传算法是基于自然选择和基因遗传学原理的搜索算法,它将“优胜劣汰, 适者生存”的生物进化原理引入待优化参数形成的编码串种群中,按照一定的适 应值函数及一系列遗传操作对各个体进行筛选,从而使适应值高的个体被保留下 来,组成新的种群,新种群包含上一代的大量信息,并且引入了新的优于上一代 的个体。这样周而复始,种群中各个体的适应度不断提高,直至满足一定的终止 条件。此时,种群中适应值最高的个体即为待优化参数的最优解。 3 转炉终点预测的准动态控制模型算法研究 针对求解组合优化问题,问题本身不具有任何先决条件或辅助信息;在求解 存在不可微的目标函数时,需要在点群中而不是一个单点上寻优;在求解约束条 件复杂的非线性优化问题时,使用随机转换规则而不是确定性规则进行工作,常 规的数学优化技术不能有效地解决,这就需要采用一种不同于常规方法的算法。 遗传算法使用参数的编码,而不是参数本身进行工作,遗传算法是在点群中而不 是一个单点上寻优;遗传算法仅使用问题本身所具有的目标函数进行工作,而不 需要其他任何先决条件或辅助信息;遗传算法使用随机转换规则而不是确定性规 则进行工作,因而遗传算法可以较好地求解这类问题【7 “。 遗传算法的数学表达 遗传算法的数学理论基础是由h o l l a n d 提出的模式( s c h e m a ) 定理。为了更好 地理解遗传算法以及其在参数优化领域的应用,下面以函数优化为例用数学方法 对遗传算法进行描述。 定义厂:r 4 寸r 为被优化的目标函数; 1 ) 适应值函数为m :j 寸只,其中,是种群的空间;口i 记为种群;工e r “ 为目标变量; 2 ) u 1 为父代种群规模;名1 为子代种群规模; 3 ) 在遗传代t ,种群p ( t ) = 和。( f ) ,口:( f ) ,盯。( f ) ) 由种群啦( f ) i 组成; 4 ) c :,一一i 。为交叉算子,其控制参数集为 ,相应作用在种群上的算子 记为,; 5 ) m :i 一寸,。为变异算子,其控制集为 。,相应作用在种群上的算子分 别记为肌; 6 ) s :u 4w 1 9 ) ,“为选择算子,其控制参数集为o ,; 7 ) a :l 寸 r ,乃为停止准则,r 表示真,表示假。 这样遗传算法可用数学语言描述为: ,:= o : 初始化p ( o ) :p ( o ) = p 。( o ) ,盯:( o ) 9 - o o ,a a o ) ) ; 适应值度量p ( o ) :p 以,( o ) ) ,m 位:( o ) ) ,西 。( o ) ) ) ; 当人( p ( f ) ) t 时,执行 交叉p ( 力:p ( f ) = c e ( p ( f ) ) ; 变异p ( f ) :( f ) = ( p ( f ”; 度量尸。o ) :p ( 口渺) ) ,m ;( f ) ) ,o ( c d a ( t ) ) ) ; 选择p ( f + 1 ) :p ( t + 1 ) = ( p ( f ) u p o ) ) 重庆大学硕士学位论文 t := t + 1 结束 遗传算法的算法结构 从遗传算法的数学描述不难看出遗传算法是一个迭代过程,在每次迭代中都 保留组候选解,按其解的优劣进行排序,并按某种指标从中选出一些解,利用 遗传算子对其进行运算,产生新一代的一组候选解,重复此过程,直到满足某种 收敛指标为止。因此,遗传算法的关键所在是: 1 ) 如何在已有解中选出一些解( 通过选择算子实行,也是选择) 用以产生后代, 并要保证它们有良好的遗传特性,产生优良后代,而这些解又涵盖整个解空间, 增加搜索到全局最优解的机会; 2 ) 如何对选出的解进行遗传操作。 那么,在设计遗传算法时,对遗传算子的一般性要求是: 1 ) 保留原有解的优良特性; 2 ) 能把计算过程中丢失的优良信息予以恢复,研究合适的选择算子和性能优 良的遗传算子。 下面给出了常用的只考虑选择、交叉、变异三种遗传操作的遗传算法的算法 结构,p pp 。、p m 分别表示选择、交叉和变异的概率。 g a 算法; b e g 缸 设定种群大小n ,并初始化种群p ( o ) ,迭代次数t = 0 ; 计算种群以o ) 中各个体的适应值; d ow h l i e 不满足终止条件 根据种群各个体的适应值及选择策略,确定种群p ( t 1 的选择概率p i ; f o r 伍= 0 ;k ;k = k + 2 ) 设n 能被2 整除, 根据选择概率鼽在y ( t ) 中选择两个父体; r 5r a n d o m 【0 ,l 】; i f ( p o nt h e n 对两个父体执行交叉操作;并将新个体插入到新种群p ( t + 1 ) 中; e i s e r ;r a n d o m 【0 ,l 】; i f ( p 。,) t h e n 3 转炉终点预测的准动态控制模型算法研究 e n d 对两个父体执行变异操作,并将新个体插入至目新种群p ( t + n 中; e n d i f e n d i f n e x tk 计算种群p ( t + 1 ) 中各个体的适应值,t = t + l ; l o o p 遗传算法优化b p 神经网络参数 目前,神经网络结构的设计主要是根据经验或实验来实现,这种启发式方法 有两个主要缺点:第一,可能的神经网络结构空间非常大,甚至对小型应用问题, 其中的大部分结构也仍然没有探测;第二,构成一个好的结构的因素密切依赖于 应用,既要考虑求解的问题,又要考虑对神经网络解的限制,但目前还没有一个 好的技术或方法做到这一点。 由于以上的缘故,在得到满意的结构之前需要经过大量的反复试验,当前大 多数应用采用简单的神经网络结构和保守的学习规则参数值。随着人工智能及计 算机技术的发展,神经网络结构的智能优化逐渐受到人们的重视。 在一组给定的性能准则下优化神经网络结构是个复杂的问题,其中有许多变 量,包括离散的和连续的,并且它们以复杂的方式互相作用。对一个给定设计的 评价本身也是带噪声的,只是由于训练的效能依赖于具有随机性的初始条件。总 之,神经网络设计对遗传算法而言是个逻辑应用问题。 遗传算法一般可以通过两种方式应用到神经网路设计中。一种是利用遗传算 法训练已知结构的网络,优化网络的连接权;另一种方式是利用遗传算法找出网 络的规模、结构和学习参数。本文引入遗传算法对b p 神经网络进行改进的策略主 要是在依据经验建立b p 神经网络结构的基础上,首先用遗传算法进行对网络连接 权的全局寻优,然后对优良个体用b p 算法进行局部寻优。根据b p 算法的不同, b p g a 算法将会有多种组合方式,下面给出了b p g a 算法中全局寻优的具体算法 结构。 b p - g a 算法: b e g i n 设定b p 神经网络结构,学习样本数c ; 产生初始化种群尸( o ) ,种群中包括个确定长度的串,表示个网络的结构参数; 重庆大学硕士学位论文 迭代次数卸 f o r ( i = 0 ;i 1 把p ( f ) 中第i 个串译码为神经网络结构参数,并对给定任务的c 个学习样本对 网络作正向计算,将系统误差转化为个体适应值; f = ,+ 1 种群中各个体按其适应值排序: d ow h i l e 不满足终止条件 根据种群各个体的适应值及选择策略,确定种群p ( t ) 的选择概率a ; f o r ( k = 0 ;k ) 设n 能被2 整除 根据选择概率p ,在p ( f ) 中选择两个父体; r = r a n d o m 【0 ,1 1 ; i t ( p c ,、t h e n 对两个父体执行交叉操作;并将新个体插入到新种群p ( t + 1 ) 中; e l s e r ;r a n d o m 【o ,l 】; i f ( n ,) t h e n 对两个父体执行变异操作,并将新个体插入到新种群p ( t + 1 1 中; e n d i f e n d 西 k = k + 2 f o r ( = 0 ;i 网络参数个 数,而具体实施过程中一般取学习样本数为网络参数个数的2 倍。 因此,为在满足样本数目的同时,尽可能的缩短样本的时间跨度,本课题在 样本划分前先对各钢种按照攀钢炼钢厂“炼钢记号”( 共8 位) 的命名规则( 表4 9 ) , 对钢种进行了分类,并用两位编码表示各钢号系列。编码首位源用炼钢记号首位, 第二位分别用l 、2 、3 表示非合金钢、低合金钢和合金钢。 表4 9 炼钢记号命名规则概述 t a b l e4 9t h en a m i n gr u l ef o rs t e e lg r a d ei n d e x 这种以钢种系列为单元的样本选取方式,一方面在样本大小一定时可缩短样 本的时间跨度;另一方面,对于新增的、冶炼记录较少的钢种也可以提供预测。 4 2 7模型测试 针对神经网络算法的测试结果,转炉终点预测的准动态控制模型的学习与测 试主要采用以下两种算法:基于批量式学习方式的引入验证样本的b p 算法,以及 基于批量式学习方式的引入验证样本的b p g a 算法。 本课题将分别对冶炼记录较多的2 个不同钢系的生产数据进行测试,测试结 果的评判主要采用指定预测精度的命中率评判和与人工一次倒炉合格率评判标准 等效的区间评判。 4 转炉终点预测的准动态控制模型建模 4 2 8 增量数据处理 在实际工程中,神经网络模型参数的更新除了因工艺、设备等外在因素外, 随着数据集会不断积累,神经网络模型参数也要作相应的更新,因此,转炉终点 预测的准动态控制模型也应该具有增量式的演化能力。采用的方法如下:针对先 前已训练好的神经网络预测模型,从数据库中接受一批新增的数据样本,调用神 经网络结构参数作正向计算,并统计新增数据样本的命中率和样本预测误差。若 计算后命中率和误差在允许范围内,则不重新训练;若误差超过了允许范围,则 将原有数据样本和增量数据样本混和,重新进行样本划分并再次调用神经网络学 习算法搜索并覆盖先前的最优化权值及其网络结构。 4 3转炉终点预测的准动态控制模型检验 4 3 1 试验设计 结合第三章中神经网络学习算法的测试结果,本章节将采用基于批量式学习 方式的引入验证样本的b p 算法、以及基于批量式学习方式的引入验证样本的 b p g a 算法,利用攀钢转炉2 种不同钢种类别的生产数据对转炉终点预测的准动 态控制模型进行检验。 转炉终点预测的准动态控制模型实现了在吹炼过程中适时地做出一次倒炉的 预测。由于转炉炼钢工艺上在冶炼初期( 前5 分钟) 主要是化渣以及【s i 】、 m n 等元 素的氧化,准动态预测模型将从吹炼开始的第6 分钟进行预测,且每间隔1 分钟 做一次预测。因此,转炉终点预测的准动态控制模型的检验将分别对其第6 分钟 到一次倒炉时间的神经网络结构参数进行检验。 通过对转炉终点影响因素及攀钢转炉炼钢生产数据的分析,选择终点预测准 动态模型的输入变量共1 2 个分别为:空炉时间、金属液装入总量、入炉 q 、入炉 【s 】、入炉温度、废钢加入量、白灰加入量、高镁石灰加入量、复合渣加入量( c a o 、 s i 0 2 和m g o ) 、提温剂加入量、耗氧量和枪位;模型的输出变量分别为一次倒炉【c 】、 一次倒炉温度和一次倒炉时间。因此,神经网络模型的输入输出单元数分别为1 2 和

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论