(测试计量技术及仪器专业论文)离散系统迭代学习控制.pdf_第1页
(测试计量技术及仪器专业论文)离散系统迭代学习控制.pdf_第2页
(测试计量技术及仪器专业论文)离散系统迭代学习控制.pdf_第3页
(测试计量技术及仪器专业论文)离散系统迭代学习控制.pdf_第4页
(测试计量技术及仪器专业论文)离散系统迭代学习控制.pdf_第5页
已阅读5页,还剩59页未读 继续免费阅读

(测试计量技术及仪器专业论文)离散系统迭代学习控制.pdf.pdf 免费下载

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

摘要 对于像生产线: 业讥器入、光盘驱动系统等角限时闽内委复运行睦模型不完 全已知的系统,迭代学习控制理论是一种较为理想的控制方法。通过控制尝试, 不断修正控制输入,迭代学习控制;q 以实现有姒时酬内刑期望轨迹的完全趴踪。 自从八_ 年代h 本学者挺出该理论以来,作为智能控制理论的一个重要分支,近 年来该理论取得了很大的发展,有许多成功的应刚。由于控制算法一般多采用计 算机来实现,连续系统的迭代学习控制也要通过数据采样平“离敞化处理,丽离教 和采样迭代学习控制理论现有成采远远不及连续系统,尤其楚在菲线性系统方 面。研究离敞和采样迭代学习控制算法有理论和实际意义。 本文着蓬研究一般q # 线性离敞系统最优选代学习算法收敛燃、线性离散系统 的苹调收敛性和鲁棒性、带输出延迟非线性采样系统迭代学习鳟法的收敛性。主 要结果有三个方面: 研究了一般非线性离教系统的最优学划控制。运用最优性原理和压缩映 射原理,在基于最优函数指标 + ,( + 。) = 恢+ 忆+ 她+ 一“。幢的基 f | l 上,给出了 迭代学习控制因果算法“。= 妒( 吒,“。) 的存在性条件,浚存在性条件与最优函数 指标约控制权值k 的大小密切相关。在浚存在性条件基礁l j 证明了迭代学习控 制输出晌致收敛性。 推导了非线性离敞系统最优学习控制算法在线1 陀离散系统一q 只体迭代肜 式,指出泼算法是线性离散系绞最优学习控制算法( 见 2 ) 在非线性离教系统中 的进一步推广。 针对该算法的实际应用提出了一剥r 近似最优的迭代算法,瑚:叫了该算法的 学习控制渡敛手最优选代学习控制。 用梯度下降法刑“离敞线性系统迭代学习控制的单调收敛性和不确定系统 的鲁棒性进行了研究,给出了基于梯度下晔法的迭代学习算法。在该算法基础上, 给出了算法的鲁蒋性鞫增强鲁擦性f | 勺方法。 在欧氏范数的含义下,用梯度f 降法改进了算法的收敛速度,实现了每一离 敝迭代时蒯输出的单调收敛性,给出厂向量参数的选择方法。仿真证明了该方法 的有效性。 摘要 针对一类有确定相对阶、存在输出延迟的i c 线性采样系统,给出了不带 高阶导数项的迭代学习筲法。通过带积分余项的级数分舸方法、五范数和 l i p s c h i z 条件,证咧了当粟牛丫j 占j j 9 j 充分小,迭代学爿控制收敛- j 二期型:f 空制,迭 代输出收敛于期望输出。同时给出了收敛算法的增益选择方法。 仿真比较了一阶和高阶迭代算法的收敛性。当选择适当的参数时,采用高阶 学习算法有利于提高收敛速度。 关键词:迭代学习控制,离散系统,最仇控制,压缩映射原理,梯度f 降法,不确定系统,鲁棒收敛 性。相对阶,采样系统 n a b s t r a c t a b s t r a c t i t e r a t i v el e a r n i n gc o n t r o l ( i l cf o rs h o n ) i sa ne 仃e c t i v em e t h o df o rt h es y s t e m s w h i c hh a v eu n c e 砌i n “c sa n d u nr e p e a t e d j y ,s u c ha si n d u s 啊a lr o b o t s ,d i s km o l i v a t i n g m e c h a n i s ma i l ds oo n i l cc a i lm a k eas y s t e mt r a c kad e s i r e dt r a j e c t o r yo fa l i m i t e d t i m ei m e r v a lb yas c q u e n c eo fc o n t r o li n p u t sw h i c h 踟e l i o r a t et h en 甚c k i n g e r r o r so v e ra i l do v e r i tm a k e sp r o g r e s sq u i c k ly ,s i n c ej a p a n e s er e s e a r c h e ra r i n l o t o ,e t a 1 ,f i r s tf o u n d e dm ec o n t r o lm e t h o di nl9 8 0 s i l ci sn o wv i e w e d 硒ab r a n c ho f i n t e l l 培e n tc o n 昀la n da p p l j e dt op r a c t j c a lc o n t m ls y s t e m se x t e n s i v e l y 1 1 l i sp a p e rs t u d i e st h ep r o b i e mo f i l co fd i s c r e t c t i m es y s l e m sa n ds a m p l e d - d a 诅 s y s t e m s i l cc o n n d la l g o r i t sn e e dt ob ei m p l e m e n 刷b yac o m p u t e lac o m p u t e r c a no i l l yd e a lw i md i s c r e t e - t i m es y s t e n l sa n dc o n t i n u o l l s i t i m es y s t e m sw h i c hh a v e a i f e a d yb e e ns a r n p l e d ,s ot h ep r o b l e mo fi l co fd i s c r e t e - t i m es y s c e m sa n ds a m p l c d s y s t e m si sf l l n d a m e n t a la f l di m p o 衄1 1 t h em a i nr e s u l t so ft h ep a p e ra r e 船f o l l o w s : o p t i m a l i t e m t i v el e 咖i n gc o n t m lo fn o n l i n e a rd i s c r c t es y s t e m s t h ep r o b l e m 0 fo p t i m a li t e r a t i v el e a m i n gc o n t r o lo fn o n l i n e a rd i s c r e t es y s t e m sh a sn o tb e e ns t u d i e d u p o n t on o w b a s c do nc o n t r a c t i o nm a p p i n gp r i n c i p i e ,u n d e fs o m em i l da s s 叫1 p t i o n s , s o m es u 衔c i e n tc o n d j t j o n sf 研u l ee x i s l e n c eo fo p t j m a l i e r a t i v el e a m i n gc o n lo f n 0 i l l i n e a rd i s c r e t e - t i m es y s t c m sa r e0 b t a i n e d n e s ec o n d i t i o n sa r eag e n e r a n z a t i o no f t h ee x i s t e n c ec o n d i t i o n so fo p t i m a li t e r a i v e l e 甜n i n gc o n t m lo fl i n e a rd i s c r e t e t i m e s y s t e m s a a i g o r i t h mo f 印p r o x i m a t ec a l c u l a t i o no ft h eo p t i m a li t e r a t i v el e a r n i n gc o n “d l l a wi sp f e s e n t e d i ti sp r o v e dt l l a tm ea p p r o x i m a t e i yo p t i m a li n p u to b t a i n e db yt h e a 1 9 0 r i t l l 】【i lc a f ig i l 撇n t e et h ec o n v e r g e n c eo f t h ci t e r a t i v cl e a m i n gc o n t r o ll a w m o n o t o n i cc o n v e r g e n c ea 1 1 dr o b u s t n c s s an e wa l g o r t h mf o ri t e r a t i v e l e 咖i n gc o n t r o lo fl i n e a rd i s c r e t e - t i m es y s t e m si sp r e s e n t e db yu s i n gt h eg r a d i e n t d e s c e mm e t h o d t h ea l g o r i t c a ng 哪n t e et l l em o n o t o n i cc o n v e 曜e n c eo fm e s e q u e n c eo ft h e 协a c k i n ge r f o r s i na d d i t i o n ,m ei t e r a t i v el e a m i n gc o n t i d l i a wd e r i v e d b yt h ea l g o “t h mh a ss o m er o b u s t n e s s ,i e ,t 王】屺i t e m t i v ei e a m i n gc o n 咖li a wi ss t i 盯 c o n v e 曙e m “e ni ft i l el i n e 甜d i s c r e t e t i m es y s t e mh a ss o m es m a l ld i s t u r b a n c e s t h e c o n v e 娼e n c cr a t ec a i lb ei m p r o v e db yc h o o s i n gap a r a m e t e ri nt h eg r a d i e n td e s c e n t m e t h o d b s t r a c t s 栅p l c di t c m t j v e 】c a r n j j l gc o l l i r o lo fn o n j i l l e a rd j s c r c t e - t i m es y s t c m an e w i t c 洲v ei e a m i n gc o n t r o l l a ww i t h o u t h i 曲e ro r d e rd e r i v a t i v e si se s t a b l i s h c df o r n o i l l i n e a rs a r n p l e ds y s l c m sw i t hf c l a t i v cd c g r c c ,w h o s eo u t p u t sh a v c i m ed c l a y s i ti s p r o v e dt h a tm ei t e r a i v el e a m i n gc o n t r o lc o n v c r g e st oad e s i r e dc o n t r 6 l i f h eo u l p u t a n dt l l ev e c t o r6 e l d so ft h ec o n t r o ls y s t e ms a t i s f yt l l el i p s c h i zc o n d i t i o n sa n dt h e s a m p l i n gp e r i o di ss h o r te n o u g h ac o m p a r i s o nj sm a d eb e t w e e n t h ec o n v e 唱e n c er a t e o fan o n l i n e a rs y s t c mw i t hh i g h o r d e rr e l a t i v ed e g r e eb ys i m u i a t i n g a saf c s u l t ,i t s h o w st h a tm es y s t c mw i t | lh i g h o r d e rr e i a t i v ed e g r e eh 船ai a 唱e rc o n v e r g c n c em t e k e y 们r d s :l t e r a t i v el e a m i n gc o n t r o l :d i s c r e t e t j m es y s 旧m s :o p “m a li t e r a i i v ei e a m i n gc o n t r o i ; c o n t r a c t i o nm a p p i n gp r i n c p l e :g r a d i e n td e s c e n tm e t l l o d :u n c e r t a i n t i e s ;r o b u s l n e s s ;c o n v e e g e n c c ; r e l a t i v ed e g 嗽;s a m p l e d s y s l e m s i v 第一章绪论 第一章绪论 摘要本章简单介绑迭代学习控制的基本概念币l 迭代学习控制的表述。分类叙述了迭代学 习搏法,迭代学习鲁棒性,迭代学习收敛速度曹闷题的发展承l 赴) i 究现状。最后,给出了本文 的主要研究内容 关键词迭代学习控制;迭代学习算法;收敛性;鲁棒性 1 1 引言 控制系统设计问题可以归纳为两大类:调节问题和跟踪问题。而调节问题可 以看成跟踪问题的特殊情况。尽管对于跟踪问题,控制理论已提供了各种设计方 法,并取得了良好的效果,但绝大多数控制技术都足渐近地实现跟踪任务。如果 要实现被控系统的完全跟踪任务,无疑是具有挑战性的。迭代学习控制技术就是 针对这种控制任务提出来的,它通过构造不同结构的控制算法,通过不断修j 下控 制,能够克服一些传统控制方法难以逾越的困难。 迭代学习控制技术从属于智能控制技术。智能控制通过模拟人类的基本智能 行为,使控制系统具有“学习”能力,能在运行过程中不断自我完善并提高控制 性能。在研究高速重复运动的控制刚小时,人们把这种“学习”的能力引入到迭 代学习控制技术中来,提出了这样一个思想:通过不断重复一个同样期望轨逊的 控制尝试,通过盼几次经验修萨控制输入,可能会得到非常好的控制效果。 a r i m o t o 等嗍人1 9 8 4 年正式提出了迭代学习控制( i t e r a t i v el e a m i n g c 0 n t r o l ,简称 i l c ) 方法,开创了一个新的研究方向。 1 2 迭代学习控制表述 迭代学习控制的适用对象是诸如工业机器人那样具有重复运动性质的被控 系统,它的目标是实现有限时日】区日j 上的完全跟踪任务。迭代学习控制采用“在 重复中学习”的学习策略,具有记忆和修正机制。它通过对被控系统进行控制尝 试,以输出轨迹与给定轨逊的偏差修正不理想的控制信号,产生新的控制信号, 使得系统的跟踪性能得以提高。迭代学习控制的研究对具有较强的非线性耦合, 第一章绪论 较高的位胃重复糨皮,俎以建投和商粘皮轨迹跟踪控制要求的动力学系统有若非 常重要的意义。 迭代学习控制足智能控删l j | 典柏,格数学描述的一个分支。名虑重复返 j 的 动态系统如下表示: 妻( ,;三二:耄 竺麓 ;i 3 c - t , 【,i ( f ) = g ( ( f ) ,( f ) ,f ) 。 其中,吒( ,) 且”,( ,) 矗和“( ,) 月“分别为系统第k 次运行的状态,输入和 输出变量,给定有限时i 日j 区域,【o ,卅。系统的期望轨迹为给定时间区问,e 【o ,川 上的期望轨迹儿( r ) r ”。记第k 次运行时系统的输出误差为q ( f ) ,则迭代学习 控制的学习算法一般可山递推的形式“( r ) = ( 叱( ,) ,q ( f ) ) 表示。当k 趋于无穷 时,如果吒( f ) 在【o ,明上一致趋于零,则称上述迭代学习控制是收敛的。收敛性 问题是迭代学习控制中最重要的问题,迭代学习过程只有是收敛的,学习算 法才有实际意义。 迭代学习控制的基本原理如图1 1 所示。 图1 1 迭代学习控制原理图 系统下一次运行新的控制既可以在上一次运行结束后离线计算得到,也可以 在上一次运行中在线计算得到:新的控制量存入存储器,刷新旧控制量;在施加 控制时,需从存储器中取出控制量。可以看到,迭代学习控制算法可利用的信息 要多于常规的反馈控制算法,它包括以前每次运行的所有时i j 段上的信息和当次 运行的当i j i 时刻之前时i h j 段的信息。 在传统的迭代学习控制研究中,一般总是假定下述假设条件满足1 2 l : 系统每次运行时i 日j l 日j 隔是有限的固定l 、日j 隔。即,e 【o ,川; 第章绪论 系统的期望轨迹儿( ,) 总是预先给定且已知的; 系统的初始条件重复,即每次运行丽,系统的仞始状念以( o ) 揶枷同; 系统的动念结构在每次运行叶1 保持4 i 变; 系统每次运行的输出儿( ,) u j 测; 存在唯一的理想控制( f ) 使得系统的状怠币黼出为期望的状念和输出。 最后一个假设条件与系统的逆密切相关,它等价于要求系统可逆。这显然是 个非常强的假设条件。但是实际上许多动念系统不满足可逆的条件,凼此,有 时我们不能实现完全精确跟踪的要求,而代之以寻找使系统输出最接近期望输出 的系统输入。这等价于在某种范数意义下,迭代学习控制算法构造了系列迭代 控制序列饥( f ) ,e 【o ,卅,= l ,2 ,) ,它收敛于一个可实现的控制信号( f ) ,且使 吼( r ) 最小。 成功的迭代学习控制算法,除了能使得系统的输出收敛,还需要有较强的售 棒性。人们发现,迭代学习的收敛性与系统的迭代仞态直接相关;并且在实际系 统中,还存在着量测噪声、输入干扰、系统参数扰动,期望轨逊变动、学习区日j 变化等各种干扰影响系统的跟踪性能。鲁捧性是研究存在系统初态扰动及其他各 种干扰情况下系统跟踪性能的稳定性和不变的性质。 另外,迭代学习算法还需要有较快的收敛速度以保证算法的实用性。而且迭 代学习控制算法的收敛性应与具体的期望轨迹无关,也就是i 兑如果给出一个新的 期望轨逊,迭代学习算法应该无需作任何改变即可适用。 自1 9 8 4 年a r i m o t o 针对机器入系统的特点,模拟人类学习技能,一丌创性地提 出迭代学习控制概念以来,迭代学习控制一直是控制界的研究热点领域之一。研 究人员针对不同类型的对象,提出了形式多样的迭代学习控制算法,并在定的 假设前提条件下,利用各种数学工具,分析得到了迭代学习控制的收敛性条件。 但是迭代学习控制的理论还远远没有达到完善的程度。 1 3 迭代学习控制研究现状 本节,主要从迭代学习算法,鲁棒性,收敛速度等几个方面介绍迭代学习控 制理论的发展和研究现状。 1 3 1 迭代学习算法 迭代学习算法是指控制输入的修正机制,即如何利用以前的控制尝试结果构 第一章绍 论 造下一次控制,迭代学习算法足迭代学习控制的核心问题。人们提出了各剃一各样 的遨代学习算法,其中主要包犯i ) f d 学习篼法,最优学习锌法,雨馈一反馈学习算 法,基于袄型的学习算法,e j 通应学爿算7 上年l l 一岛阶学爿算法等。 1 3 1 1p i d 型学习算法 出于p i d 学习算法简币确效,计算量小,n 仅需蛩极少的系统先验知识,从 而得到了广泛而深入的研究,是最成熟的迭代学习控制算法之一。 r i n k ,t o 及其 合作者首先提出d 型l ”l 、p d 型和p i d 型1 4 ”等迭代学习律,并引入范数这一数学工 具,分析得到了保证上述各学习律收敛的充分条件m h 4 ”。这一工具成为许多迭 代学习律收敛性分析的基本手段。进一步,他们提出了p 型、p i 型学习算法。 p i d 型迭代学习算法可以表示为 心+ i ( ,) = ( ,) + 三f t ( ,) + i o 女( ,) + 甲f 吼( r ) d r ( 1 2 ) 其中厶r 、甲为相应维数的增益她阼。 对如( 1 3 ) 所示的线性连续系统,当直接传输项d = o ,可采用d 型学习算法 “( f ) = 叱( f ) + “i ( f ) ,已经证明纠当4 ,一r c 口8 1 、l ,一c 口州 o 。 式( 2 2 ) 中、儿、t 为输入、输出、状念变量的超向量形式 “ = 【“t ( 0 ) ,“ ( i ) ,- ,t ( 7 ) 】r n = 眦( o ) ,几( 1 ) ,一,儿( 7 ) , 期望轨迹儿为 肋= 【儿( o ) ,乃( 1 ) ,儿( 7 1 ) r 输出误差为 o k 2y d y k 这是一个最优迭代学习控制问题。 引入文献 7 0 】中因果性的定义。 定义2 1 迭代学习算法是因果的,当且仅当第k + 1 次第t 时f b j 的迭代控制输入 是通过第”1 次 o ,t 一1 时间和第k 次及以前次迭代 o ,t 上的迭代数掘计算得 到。 2 3 最优迭代控制的存在性和算法 根据最优性原理,对( 2 1 ) 系统要求叱+ 。使( 2 2 ) 式最小,利用矩阵求导 方法对( 2 2 ) 式求导 第- 二章离散1 r 线性最优选代学习控制 型! ! 生12 抛“i ;坐连必锄挈炮。似帆r :o “i + id “i + l 上式又可以写为 ( 罢兰盟) 7 缈+ i = 一r ( ”“l 一“i ) ( 2 3 ) d “t + l 第k 十1 次迭代误差e = y d y = 气一( n “一) ,i ) ,其中儿“是输入序列 “l 的函数。 把y 一以写成积分的形式 吼:户业坐出盯( 叫) 苫d “i 方程( 2 3 ) 可以写成以下的形式 附( 挈,q i 煎逝芒啦二墨似。叫) :( 鍪) ,缈。 咖 + i; 咖“i咖“ 记= m 一“i ,则上式可写为 叶( 弛婴型) r g 芦喽二坐骗血:( 纽 堂) ( 2 4 ) 砌“i;砌“i砌“ 记 爿( “) :( 旦兰生掣) r q 鱼垒盟! 华盯 d “i + i;咖“ b ( “) :曼! ! ! 竺垒竺! a “, 可以得到下面的定理2 1 。 定理2 1 :对非线性离散系统( 2 1 ) ,如果满足: “,f = o ,1 ,2 为满足( 2 3 ) 式的“迭代序列; 爿( “) 、b ( “) 有界且满足l i p s c h i z 条件,爿( “) ,口( “) 的l i p s c h i z 常数为厶; 1 4 第一二章离敞1 i 线性最优选代学习控制 定义口为 口= p * 陋。8 眯“舭“) ) “m + r 。舭扩) ) “m 。矶删) | + i l ( ,+ r 叫一( “一) ) 叫黔 且口 i : 那么存在着唯一因果解+ i = 妒( 气,) ,使得( 2 3 ) 式成立。 证明:考虑方程( 2 3 ) 中,由,即 隐i l 掣一警卜刮f 则( 2 3 ) 式可以写成以一f 的形式 ( 尺+ 彳( “) ) “= b r ( “) q 吼 ( 2 5 ) 现在证明存在一个甜,使得( 2 5 ) 式成立。 取一个迭代序列 “,& 。 “o = o : “。卅;( r + 彳( “) ) 口r ( “。) q q 则有 “,“ = ( r + 一( “。) ) 一曰r ( “。) 缈i 一( r + 4 ( “一) ) 一1 8 7 ( 甜一) q = ( ( 尺+ 爿( “。) ) 一( r + 一( “,- 。) ) 一) b r ( “) ! 主 + ( r + 爿( “7 _ 1 ) ) 一( 占r ( ) 一口r ( 一) ) 1 2 两边取范数得 ”一血卅 s ( 8 ( r + 彳( 幽) ) 1 8 8 彳( 血) 一彳( 扩圳( ,+ 尺。彳( 衄川) ) “8 肛b 7 ( 触 + 0 ( 月+ 彳( 幽川) ) _ 7 ( 衄争b ( 圹侧同i 晦8 厶p 4 8 同8 、f 酝咏r 。彳( 缸) ) “竹鼬) ) 。m 。b 7 ( 幽侧 + 8 ( ,+ r - j 彳( 。) ) 。d 阻一缸川8 口q 缸一血 第一二章离散1 r 线性最优迭代学习控制 其中 口= 巾1 1 厄。竹。州觚协刊( 一瓜衄川) ) 州r 一1 枷 ( 2 6 ) + p + j 4 ( 幽川) ) 。8 ) 注:l 恒。厨。i i , 详见( 2 8 ) 。 如果口 0 ,有( 口( “) ) 7 9 口( “) o 成立,所以0 p l 总足成 立。当p ;l ,当且仅当口( “) = o 。该情况见上面讨论的。所以输出序列1 4 竹 调收敛于零。 从证明过程可以看到,非线性离散迭代学习算法的收敛性只与输出方程有 关,而与状态方程无关。当系统迭代输出对控制输入的相对变化是有界而且平缓 的,那么对目标函数( 2 2 ) 。对足够大的r ,总存在因果的迭代学习算法,使得迭 代输出收敛。在该算法中,迭代控制输入变化权值r 起着极其重要的作用。 考虑线性离散系统 j 以( h 1 ) 2 一屯( ) + b 叱( ( 2 1 4 ) 【几( ,) = d i ( ,) + d ( f ) 式中也( f ) r ”,y 。( f ) r ”,叱( f ) e r 7 。f 【o ,7 ,表示离散叫i b j 0 ,l ,2 ,n 假设儿( 0 ) 为重复的输出初态重复且y t ( o ) = 朋( 0 ) 。考察线性离散系统 ( 2 1 4 ) 中的最优学习控制,输入输出的超向量形式与前相同。引用文献 2 】中的 符号g g = d c b c a b : c a 7 4 b 0o d0 c bd c a 7 。bc a w 可以得到爿( 甜) = g 7 q g 、口( ) = g 。彳( z ,) 、口( “) 为定值,其l i p s c h i z 常数厶= o 。有迭代学习算法因果性存在条件口;o ,显然满足定理2 1 。 按( 2 5 ) 可以得到最优迭代学习算法 第一二章离散1 r 线性最优迭代学习控制 也= ( g 7 9 g + r ) 。g 7 9 该表达式与文献 2 中的表达式完全一致。 收敛条件由定理2 2 给山。山( 2 1 4 3 ) 得 p 缈川4 p p q 吼0 ( 2 1 5 ) 其中p = 4 ( g 7 q g r 一1 + ,) 。8 ,同理山g 7 q g o r o ,有o p l ,线性离敞系 统收敛。 线性离散系统最优因果迭代算法存在条件口;o ,所以总有满足最优迭代学习 算法的因果解存在。因此,线性离散系统是上述算法的特殊情况。注意到线性离 散系统的因果解存在条件与函数指标中的增益q ,r 完全没有关系。这既明,系 统输出对控制输入的导数变化越大,指杯函数中控制项的作用必须越强。因果解 的存在条件也更为严苛。 文献 2 中给出了线性离敖系统的最优学习控制,从上面的分析可以看出, 非线性迭代学习控制算法( 2 5 ) 是线性系统算法的进一步推广。 2 4 近似算法 上节给出了非线性离散系统因果解的存在性条件,证明了在该存在条件下系 统输出的收敛性。通过( 2 3 ) 式求解控制输入的表达式要求解多维方程,在实际 应用中很难直接使用。有( 2 1 4 3 ) 。f j 的p 表达式可以看出,只要拿纽满秋,总有 硎“t o o ,从( 2 3 1 ) 可以看出,罢堕霞一t ( 孚生) 7 q + , 咖d 是一个对称矩阵,总有鍪露一一( 鍪) r 9 o ,有 o “ko h k p = 0 c 玺c 挈协仃l 一 亿s z , 总成立。 即有迭代输出序列瞅+ ,_ o ,t 峥。o ,迭代学习算法收敛。且由( 2 2 9 ) 式可得, 叱“一蚝呻o 七。 考察近似迭代控制与最优控制的关系。 可以看到,每一步迭代时,指标函数( 2 3 ) 不一定为最小。估计非线性系统 最优迭代算法( 2 1 0 ) 与近似算法( 2 2 9 ) 之间的控制。 不妨砜垒( ( 挈7 q 甏删r q 蚴2 1 0 ) 可以表示为 “i 一“i = “t = 何“l p 式( 2 2 9 ) 为区别起见,表示为 h k n 一甜k 。h k2h i e t 那么第k + 1 次的控制输入偏差 毪+ 一以+ i = “一玩+ 风+ q 一日。蠢 = u i h k + h t “e k h t e i + hk e k hk e k 2 l 第一二章离敞1 r 线性最优迭代学习控制 设 两边取范数 :蜥一以一以拿土( 心一以) 十( 也。一以) q ( 2 3 3 ) 咖i k ,吨斗吨神一:l i + i | ”讣l 斗一风剖 = l h c 薏炮薏峋气玺炮割 = 卜+ “缸q 缸叫c 又由于序列慨0 一o ,t - o 。,有 一“:+ i l _ o ,一o o 当离散系统为线性时,有日。= 也成立,即+ = “:。如果系统是非线性 离散系统,采用( 2 2 9 ) 形式的推广迭代学习算法,迭代次数足够多时,近似迭代 控制趋于最优控制。 证明完毕。 采用近似迭代因果性迭代算法( 2 2 9 ) 的收敛性对r 没有要求,q 、r 与收敛 速度有关。 2 5 仿真 例2 5 1 :以一个单杆机械手的轨迹跟踪控制为例l ,考虑单秆机械手系统可以 如下描述: 第一章离敞竹线性最优迭代学习控制 啪刊1 尘挚+ y 等峨l c o s q 嘲 dl。d| 、 其中目( f ) 为机械手的关订们位移;f ( ,) 为作川侄关节上的骀动力射! :,肘,y 分 别为机械手的卡丁长、质量、关节摩擦阻力系数,各个值为,= l m ,m = 2 0 船, y = 1 o 锄2 s ;g 是重力加速度。使用欧拉法建立离散状态空j 日j 模型,设采样时问 日j 隔为h 。考察离散非线性系统迭代算法( 2 2 9 ) 收敛性。 经离散化后的离敞非线性系统为: j i ( 【,+ 1 ) 功= t u 坊 屯( ( ,+ 1 坳= ( 2 一吲彬讧:+ ( 吲彬一l m 一,c o s + 2 似町砷( 2 3 4 ) 【儿国= t o 其中时问_ , o ,l ,1 0 】,采样时日j 间隔h = o 1 ;初始状念为x ,( o ) = x :( o ) = o 。 设初始控制输入为( 加) - o 。期望运行轨迹为 、儿( ,) = s i n ( 5 刀咖7 ) 最优性指标函数为( 2 2 ) ,其中取q = d i a g ( 8 0 0 ) ,r - d i a g ( 3 ) 。 采用( 2 2 9 ) 学习算法,可以算得导数矩阵g :孚为下三角矩阵,各项元素值为: 第晚器= o ;其余项加 第二行:器;o 器- o l ;可得 器观,;器:o ;其余卿: 一:鬻扎,鬻= 鬻铲,鬻一o ,鬻一o t 朋 器= 鬻;器乩舞地其余购;。 依次类推,可得系统输出对输入的导数矩阵。 迭代学习律为t 叫t 叫( 罄) 7 9 罄枷) _ l ( 鲁) 7 如一 o h 0 “口“ 仿真结果: 输出误差收敛曲线见图2 1 ,各次迭代输出曲线见图2 2 ,不同控制权值对 第一二章离散1 r 线性最优迭代学习控制 图2 ,l 误差范数收敛曲线,范数取恢粘,q = d i a g ( 8 0 0 ) ,肛d i a g ( 3 ) 迭代停止条件为慨0 。 o ,所以序列慨+ 。n t 【1 ,2 ,】,有极限, 设为气。则 k 0 2 一2 一o ,寸。o 痢知,取吼= 黯得 可得 则有 慨+ 4 卜小一黠训一m ( 3 1 0 ) 一寿h 剐“一 甲+ 8 。呻o ,t 寸。 出( 3 1 2 ) 和( 3 9 ) ,可得控制输入忪8 _ o ,| 】 一- 由( 3 9 ) ,可以得到 取范数有 ( 3 1 1 ) ( 3 1 2 ) 口“i = 气a t 甲甲+ = ( ,一口 甲甲+ 弦t ( 3 1 3 ) h 。,一吼甲甲+ 悱。0 ( 3 1 4 ) 当上不是方阵q 叩的特征值,迭代误差收敛于零。 第二章基丁梯度f 阡法迭代学习算法 证明完毕。 可见,收敛的速度取决于范数p = 6 ,一吼邺p + 0 的大小,p 之寸。,甲,甲瓦 ) s 吼( 吼2 2 2 卜甲坛。2 假设吒o ,忪,忙,则 即2 2 2 l l o ( 3 1 7 ) ( 3 1 8 ) 第二章基丁梯度f 阡法迭代学习算法 得口的取值为 耶错耥 卿 系统输出单调收敛于期望输出。当控制系数吒2 f 矿者孬时,输入控制 为最优。 由( 3 1 9 ) 可知,越小,鲁棒性越好,但是收敛速度变慢。当卢寸0 时,迭 代学习控制趋于最优控制。 为兼顾收敛速度和鲁棒性,更改函数指标( 3 3 ) 为 m i n j ( 机+ ) = m 删k + 。8 2 + 衙) ( 3 2 0 ) 其中y r + 。 定理3 2 离散线性系统( 3 1 ) 基于函数指标( 3 2 0 ) 的迭代学习,当采用迭代学 习算法“铆t + 吒甲+ 吼,嘶= 歹端,甲+ 为甲的对偶矩阵,且去不是 方阵哪+ 的特征值,则p t 一0 ,t 专。;一o ,七一。 证明:用同样的推导方法可以得到,迭代收敛算法为 收敛最快的吼为:吼= 歹垩毒;连了 这时,( 3 2 0 ) 取得最小值。由最小值性质有 慨卜卜届h 2 ( 3 2 1 ) 又明显的,序列l k8 22 0 。出单调有界序列的性质,设序列鼽1 2 的极限为。 第二章基丁梯度f 降法迭代学习筇法 可得 m 2 咔l = 燥划s f | t i 吲劬 同理当上不是方阵忡的特征值,迭代误差收敛于零。与前面算法不同的 吼 是由吼= 歹掣嵩;连了可知,当q 时。,t 寸o 。时,吒_ 。,t o 。 证明完毕。 盼面讨论的梯度下降学习算法,只有一个参数可调,对控制输入不止1 个的 系统,还可以通过向量参数的选择提高收敛速度。下面给出一种基于平方范数的 梯度下降法推广参数选择方法。 3 4 推广 从( 3 4 ) 可以看到,控制向量的变化方向采用的是同一个参数口,从仿真可 以看出,虽然输出误差的范数是单调下降的,但是某一个时日j 点,随着迭代的进 行不一定是单调减小的收敛方向。如果每个控制输入有独立的可变参数,应该有 更快的收敛速度。 t 以单输入单输出系统为例,如果指标函数取 m i n ,( “。) = m i n k 。蛭 其中的范数取为欧氏范数,我们束看误差的变化。 设 口= 击a 苫【a o ,口。,口,一i 】 控制输入的变化方向定义即为 第二帝墓r 梯度p 阡法迭代学习笄法 肼i = 口【叱( o ) t “女( 1 ) ,叱( 7 t 1 ) 】7 = “( o ) ,口l “i ( 1 ) ,盯t l ( ,一1 ) j 7 类似( 3 4 ) 式,有 气“= ) 0 y i + l = ) 0 一、壬,“i + i = y d 一甲“i 一甲“ = p 一甲“ ( 3 2 2 ) 定理3 2 线性离散系统( 3 1 ) ,采用迭代学习算法机+ i = + ,系统输出 按欧氏范数单调收敛于期望输出。其中控制修讵量 = 【口o 虬( o ) ,口i ( 1 ) ,口7 一l ( r 1 ) r 式中选取: “ ( f ) = g l 吒o + i ) 一q 1 9 2 气( f ) 一c g ( 1 ) ( 3 2 3 ) 其中为下式; 丛业一嘭一。g :吼( r ) g f + l 吼( 1 ) q 2 磊专面i 磊万万j 而 g i p t ( f + 1 ) 一口,- 1 9 2 吼( ,) 一一岛“气( 1 ) 证明:根据欧氏范数定义,忱+ 畦:壹。乙( f ) ,使每一项最小。由甲下三角阵的 j i l 性质,可以按时问点计算每一个误差的变化 e ( f ) = e i ( f ) _ g ,q 一,“t ( f 一,) j = l 当t = l 时,可得 ( 3 2 4 ) 反。( i ) = ( 1 ) 一2 蜀吒( o 地( 1 ) + ( 嘞

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论