《神经网络》课件第8章_第1页
《神经网络》课件第8章_第2页
《神经网络》课件第8章_第3页
《神经网络》课件第8章_第4页
《神经网络》课件第8章_第5页
已阅读5页,还剩84页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

8.1径向基函数网络模型

8.2网络的训练与设计8.3径向基神经网络的工具箱8.4混沌时间序列建模及预测8.5小结

习题

众所周知,BP网络用于函数逼近时,权值的调节采用的是负梯度下降法,这种调节权值的方法有它的局限性,即存在着收敛速度慢和局部极小等缺点。本章主要介绍在逼近能力、

分类能力和学习速度等方面均优于BP网络的另一种有监督的神经网络——径向基函数(RadialBasisFunction,RBF)网络,它是由J.Moody和C.Darken于20世纪80年代末提出的一种网络结构,是一种具有单隐层的三层前馈网络。本章首先介绍了径向基函数网络模型,论述了该网络的训练与设计。在论述中介绍了径向基网络所涉及到的算法,即无监督学习的聚类算法,主要是两种动态聚类算法:k-均值法、基于样本和核函数的相似性度量的算法。最后,本章还详细介绍了面向MATLAB工具箱的径向基神经网络,并介绍了混沌时间序列建模及预测。径向基函数网络是在借鉴生物局部调节和交叠接受区域知识的基础上提出的一种采用局部接受域来执行函数映射的人工神经网络。RBF网络最基本的构成包括三层,其结构如图8-1所示,其中每一层都有着完全不同的作用。8.1径向基函数网络模型

输入层由一些源点(感知单元)组成,它们将网络与外界环境连接起来;第二层是网络中仅有的一个隐层,它的作用是进行从输入空间到隐层空间的非线性变换。隐层节点中的作用函数(基函数)对输入信号将在局部产生响应,也就是说,当输入信号靠近基函数的中央范围时,隐层节点将产生较大的输出,由此看出这种网络具有局部逼近能力。输出层是线性的,它为作用于输入层的激活模式(信号)提供响应。

图8-1径向基函数神经网络结构图设RBF网络结构如下:输入层神经元节点数n,径向基层神经元节点数r,输出层神经元节点数m。设径向基层神经元j与输入层神经元i之间的连接权为wji,径向基层神经元j与输入层n个神经元之间的连接权向量为

wj=(wj1,wj2,…,wjn)T

j=1,2,…,r(8-1)则径向基层神经元与输入层神经元之间的连接权矩阵为W1=(w1

w2

wr)T(8-2)

径向基层神经元的结构如图8-2所示。径向基层采用径向基函数为激活函数;线性输出层采用纯线性函数作为激活函数。图8-2径向基层神经元结构图

RBF网络是以函数逼近理论为基础而构造的一类前向网络。拟合和插值都是函数逼近或者数值逼近的重要组成部分,它们的共同点都是通过已知的离散点集M上的约束,求取一个定义在连续集合S(M包含于S)的未知连续函数,从而达到获取整体规律的目的,即通过“窥几斑”来达到“知全豹”。那么拟合和插值二者的区别是什么?简单地讲,所谓拟合,是指已知某函数的若干离散函数值{f1,f2,…,fN},通过调整该函数中若干待定系数{λ1,λ2,…,λN},使得该函数与点集M的差别(通常是最小二乘意义上的)最小。如果待定函数是线性的,就称为线性拟合或者线性回归(主要在统计中),否则称为非线性拟合或者非线性回归。表达式也可以是分段函数,这种情况称为样条拟合。而插值是指已知某函数在若干离散点上的函数值或导数信息,通过求解该函数中待定形式的插值函数以及待定系数,使得该函数在给定离散点上满足约束。插值函数又称为基函数,如果该基函数定义在整个定义域上,称为全域基,否则称为分域基。如果约束条件中只有函数值的约束,称为Lagrange插值,否则称为Hermite插值。从几何意义上讲,拟合是指给定了空间中的一些点,找到一个已知形式未知参数的连续曲面来最大限度地逼近这些点;而插值是指找到一个(或几个分片光滑的)连续曲面来穿过这些点。从严格意义上说,插值问题可以叙述如下:

给定一个包含N个不同点的集合{xi∈Rn|i=1,2,…,N}和

相应的N个实数的一个集合{di∈R1|i=1,2,…,N},寻找一个函数F:Rn→R1满足下述插值条件:F(xi)=di

i=1,2,…,N(8-3)

对于这里所述的严格插值来说,插值曲面(即函数F)必须通过所有的已知数据点。

RBF网络技术就是要选择一个函数F具有下列形式:

其中{φ(‖x-xi‖)|i=1,2,…,N}是N个任意(一般是线性的)函数的集合,称为径向基函数;‖·‖表示范数,通常是欧几里德范数。已知数据xi∈Rn,i=1,2,…,N定义为径向基函数的中心。

(8-4)给定数据集T={(x1,d1),…,(xN,dN)}∈Rn×R1,将式(8-3)所给的插值条件代入式(8-4),我们可以得到一组关于未知系数(权值)的线性方程组:(8-5)其中,fji=f(‖xj-xi‖),j,i=1,2,…,N。令d=[d1,d2,…,dN]T,w=[w1,w2,…,wN]T,A={fji|j,i=1,2,…,N},则式(8-5)可以写成紧凑形式:

Aw=d(8-6)

显然,当矩阵A是非奇异矩阵时,上述方程有唯一解。问题的关键是:如何保证矩阵A是非奇异的?可以证明,对于大量径向基函数满足Micchelli定理。

Micchelli定理:如果是N个互不相同的点的集合,则N×N阶的矩阵A(第ji个元素是fji=f(‖xj-xi‖))是非奇异的。常用的基函数有下列几种:上面这些函数都是径向对称的,但最常用的是高斯函数:(8-7)其中x是n维输入向量;ci是第i个基函数的中心,与x具有相同维数的向量;σi是第i个感知的变量(可以自由选择的参数),它决定了该基函数围绕中心点的宽度;m是单元个数。‖x-ci‖是向量x-ci的范数,它通常表示x与ci之间的距离,Ri(x)在ci处有一个唯一的最大值,随着‖x-ci‖的增大,Ri(x)迅速衰减到零。对于给定的输入x∈Rn,只有一部分靠近中心被激活。可以从两个方面理解径向基网络的工作原理。

(1)从函数逼近的观点看:若把网络看成是对未知函数的逼近,则任何函数都可以表示成一组基函数的加权和。在径向基网络中,相当于选择隐含层神经元的传输函数,使之构成一组基函数逼近未知函数。

(2)从模式识别的角度看:由模式识别理论可知,在低维空间非线性可分的问题总可映射到一个高维空间,使其在高维空间中变为线性可分。在RBF网络中,输入到隐层的映射为非线性的(隐单元的作用函数是非线性函数),而隐层到输出则是线性的。可把输出单元部分看做一个单层感知器,这样,只要合理选择隐单元数(高维空间的维数)及其作用函数,就可以把原来的问题映射为一个线性可分问题,从而最后可用一个线性单元来解决问题,这就使得不太好处理的非线性问题线性化,便于分析。8.2网络的训练与设计

在讨论RBF网络学习策略前,首先看一下该网络所涉及到的算法。无监督学习的聚类算法是把未知类别的样本集按照样本间相似程度分类的一类算法,其中的动态聚类算法按初始分类方式、准则函数的选择、调整类的方式的不同,又有多种算法。这里介绍两种动态聚类算法:k-均值法、基于样本和核函数的相似性度量的算法。8.2.1聚类分析

将由n维变量组成的每一样本看成为一个n维向量,定义为n维欧氏空间的一个点。由M个样本组成的样本集,即对应于欧氏空间中的M个点:

up∈Rnp=1,2,…,M

点间的距离函数可作为样本间的相似性度量指标,距离近的点可以聚为一类。距离有多种定义,这里主要讲述欧氏距离。设d表示第i与第j个样本间的距离,欧氏距离定义为(8-8)描述类别的特征,常用的量有:

(1)均值

(8-9)

式中:ci是第i类样本的均值;Mi是第i类样本数;Γi是第i类样本子集。

(2)马氏距离

其中Σi是第i类样本子集的协方差矩阵,即(8-10)是其逆矩阵。马氏距离既考虑了样本的统计特性,又排除了样本之间的相关性影响。8.2.2动态聚类法

动态聚类方法的任务是将数据集划分成一定数量的子集。例如将一个数据集划分成三个子集、四个子集等。要划分成多少个子集往往要预先确定或大致确定,当然这个子集数目在理想情况应能体现数据集比较合理的划分。这里要解决的问题是:

(1)怎样才能知道该数据集应该划分的子集数目?

(2)如果划分数目已定,则又如何找到最佳划分?数据集可以有许多种不同的划分方法,需要对不同的划分作出评价,并找到优化的划分结果。由于优化过程是从不甚合理的划分到“最佳”划分,是一个动态的迭代过程,故这种方法称为动态聚类方法。

动态聚类法属于无监督学习的一类聚类算法,其要点为:(1)选定某种距离,作为样本间的相似性度量。

(2)确定某个评价聚类质量的准则函数。

(3)给定某个初始分类,然后用迭代算法,找出使准则函数最优的聚类结果。这里仅介绍两种算法,即k-均值法、基于样本和高斯核函数的相似性度量的算法。

1)k-均值法

k-均值法的聚类准则函数为

其含义是求k个子集中的各类样本u与其所属样本均值ci间的误差平方和,再对所有k类求和。样本集的不同分类,导致不同的样本子集Γi及其均值ci,从而得到不同的Je值,而最佳的聚类是使Je为最小的分类,这种类型的聚类通常称为最小方差划分。它能使聚类域中的所有样本到该类中心距离的平方和(欧氏距离)为最小。由于准则函数与k类的均值有关,故称k-均值法。(8-11)

k-均值法算法步骤:

(1)选择某种方法把N个样本分成k个聚类的初始划分,计算每个聚类的均值c1,c2,…,ck,其中k表示聚类的模式数;令ci(0)表示第i个初始聚类中心,i=1,2,…,k。

(2)选择一个备选样本y,设其在Γi中。

(3)若Ni=1,则转(2),否则继续。

(4)计算

(5)对于所有的j,若ei≤ej,则将y从Γi中移到Γj中。

(6)重新计算ci和cj的值,并修改Je。(8-12)由迭代算法可得(8-13)(8-14)(8-15)(8-16)

(7)若连续迭代N次(即所有样本都运算过)不变,则停止,否则转到(2)。

上述k-均值算法都是在类别k已知的条件下进行的。若类别数未知,则使用k-均值算法时,可以假设类别数是逐步增加的,例如对k=1,2,3,…分别使用该算法。显然准则函数Je是随k的增加而单调减少的。如果样本集的合理聚类数为k类,当类别数继续增大时,相当于将聚类很好的类别又分成子类,则Je值虽然继续减少但会呈现平缓趋势。如果作一条Je值随k变化的曲线,如图8-3所示,则其拐点对应的类别数就比较接近于最优聚类数。图8-3中,k=3是较合适的聚类数。图8-3

Je值随k变化的曲线

k-均值算法的一个主要问题是划分类别数必须事先确定,这种主观确定的数据子集数目并不一定符合数据集自身的特点。

2)基于样本和高斯核函数的相似性度量的算法

k-均值法将均值作为一类的代表点,只有当类的分布近于超球状时,即每类中各分量的方差接近相等时,才可能有较好的效果。当各分量的方差不等而呈超椭球形的正态分布时

,需定义一核函数,以表示一个类。对于某样本应归于哪类,需建立样本与核函数之间的相似性度量,这就是该动态聚类算法名称的由来。

(1)(8-17)样本的协方差阵是:(8-18)

(2)定义相似性度量:

(3)定义准则函数

(4)聚类算法步骤:

该算法步骤与k-均值法类似,其实,k-均值法只是其特例。(8-19)8.2.3

RBF网络的学习算法

对于网络的学习算法,RBF网络分为有导师学习和无导师学习两部分。隐含层和输入层之间的权值(中心及半径)采用无导师聚类方法训练,最常用的是k-均值法。输出层和隐含

层之间的权值采用有导师方法训练。简便实用的一种办法是在确定隐含层和输入层之间的权值之后,把训练样本矢量和其理想输出代入RBF网络,从而推出各个输出层神经元和隐含层之间的权值。

RBF网络依然是典型的有导师学习网络,其学习过程包括两个步骤:

(1)确定每一个RBF单元的中心cj和半径σj。

(2)调节权矩阵W。下面我们详细介绍这两个步骤。

(1)中心cj的确定。采用k-均值聚类分析技术确定cj。找出有代表性的数据点(不一定位于原始数据点)作为RBF单元中心,从而极大地减少隐RBF单元数目,降低网络复杂化程度。利用k-均值算法获得各个聚类中心后,即可将之赋给各RBF单元作为RBF的中心。

(2)半径σj的确定。半径σj决定了RBF单元接受域的大小,对网络的精度有极大的影响。半径选择的原则是使得所有RBF单元的接受域之和覆盖整个训练样本空间。图8-4给出了RBF单元接受域的示意图。图中“*”代表样本,样本Dj(j=1,2,…)表示第j个RBF单元的接受域,D为样本空间。图8-4

RBF网络接受域示意图(二维情形)通常应用k-均值聚类法后,对每个聚类中心cj,可以令相应的半径σj等于其与属于该类的训练样本之间的平均距离,即

另一个选择σj的方法是对每一个中心cj,求取它与其最邻近的N个近邻单元中心距离的平均值作为σj的取值。(8-21)

(3)调节权W。这里权W是指输出层和隐含层之间的权值,可以采用线性最小二乘法和梯度法来调节权矩阵W。

①线性最小二乘法。令网络输出为

Y=W·Φ=T

W=TΦT(ΦTΦ)-1(8-22)②梯度法。迭代公式如下:

W(t+1)=W(t)+η(T-Y)ΦT(8-23)

由于输出为线性单元,因而可以确保梯度算法收敛于全局最优解。8.3径向基神经网络的工具箱

MATLAB仿真语言中关于径向基函数神经网络的重要工具函数见表8-1。表8-1

MATLAB中关于径向基函数神经网络的重要工具函数

8.3.1面向MATLAB工具箱的径向基神经元模型

图8-5显示了一个具有R个输入的径向基神经元模型。从图8-5中可以看到,径向基神经元的结构与前面几章介绍的神经元结构有所不同。径向基网络传递函数radbas以权值向量和域值向量之间的距离‖dist‖作为自变量,其中,‖dist‖是通过输入向量和加权阵的行向量的乘积得到的。图8-5径向基神经元模型结构输出表达式为

y=f(‖w-x‖·b)=radbas(‖w-x‖·b)(8-24)

式中radbas是径向基函数,一般采用高斯函数:

y(n)=radbas(n)=e-n(8-25)

当输入自变量为0时,传递函数取得最大值为1。随着权值和输入向量之间距离的减少,网络输出是递增的,径向基传递函数的最大输出值为1。因此,径向基神经元可以作为一个探测器,当输入向量和加权向量一致时,神经元输出为1。图8-5中的b为域值,用于调整神经元的灵敏度。

径向基传输函数的传输特性和符号如图8-6所示。图8-6径向基函数的传输特性和符号8.3.2面向MATLAB工具箱的径向基神经网络

径向基神经网络也属于一种前馈反向传播网络,主要涉及到隐含层和输出层,隐含层为径向基层,输出层为一线性层,其结构如图8-7所示。图8-7径向基函数神经网络模型图8-7中,R表示网络输入的维数,S1表示隐含层的神经元个数,S2表示输出层的神经元个数。

网络的输出为(8-26)(8-27)(8-28)下面讨论径向基网络的工作特性。从图8-6所示的径向基传输函数特性可以看出,只有在距离为0时,其输出为1;而在距离为0.833时,输出仅为0.5。假定给定一个输入向量,径向基神经元将根据输入向量与每个神经元权值的距离输出一个值。那些与神经元权值相差很远(距离大)的输入向量产生的输出值趋于0,这些很小的输出值对线性神经元输出的影响可以忽略。相反,那些与神经元权值相差较小(距离小)的输入向量产生的输出值趋于1,从而激活第二层线性神经元的输出权值。换句话说,径向基网络只对那些靠近(距离接近于0的中央位置)输入权值向量的输入产生响应。由于隐含层对输入信号的响应只在函数的中央位置产生较大的输出,即局部响应,因此该网络具有很好的局部逼近能力。8.3.3径向基网络的创建与学习过程

创建径向基网络的设计函数有newrbe和newrb,它们在创建径向基函数网络的过程中用不同的方式完成了权值和阈值的选择和修正,所以径向基网络没有专门的训练和学习。

1.精确设计函数(newrbe)

功能:设计一个高精度RBF网络。

指令格式:net=newrbe

net=newrbe(P,T,SPREAD)

参数意义:P为输入向量;T为目标向量;SPREAD为径向基函数的分布系数,缺省值为1.0。执行的结果是创建径向基神经网络,具有P个径向基神经元,与输入的个数一样,而且将第一层网络的权值设置为P′。第一层网络阀值的大小设置为0.8236/SPREAD,这样使得径向基函数在网络输入与相应权值的距离小于SPREAD时,具有大于0.5的输出,所以增大SPREAD的值可以扩大网络输入的有效范围。第二层网络的权值IW{2,1}和阀值b{2}是利用第一网络层仿真的结果,并通过解如下线性方程得到的:

[IW{2,1}b{2}]·[A{1};ones]=T在使用函数newrbe创建径向基神经网络时,需要注意一点,就是要选择尽量大的SPREAD值,以保证径向基函数的输入范围足够大,从而使它的输出尽量具有较大的值。而且,SPREAD的值越大,网络的输出就越平滑,网络的泛化能力也越强。但是太大的SPREAD值,会导致数学计算上的问题。可以看出,上述过程只要进行一次就可以得到一个零误差的径向基函数网络,所以newrbe创建径向基函数网络的速度是非常快的。但是由于其径向基神经元数等于输入样本数,当输入向量数目很大时,将导致网络的规模也很大,所以更有效的方法是采用newrbe创建径向基函数网络。

【例8-1】已知输入向量和目标输出向量为

P=[123]

T=[2.04.15.9]

设计径向基神径网络(本例M文件见光盘FLch8eg1)。解MATLAB程序代码如下:

P=[123];

T=[2.04.15.9];

net=newrbe(P,T);%创建一个径向基函数网络

P=1.5;%输入一个新的样本值

Y=sim(Net,P)%仿真该网络

Y=

%运行结果

2.8054

2.普通设计函数(newrb)

功能:设计一个RBF网络。

指令格式:net=newrb

[net,tr]=newrb(P,T,GOAL,SPREAD)

参数意义:P为输入向量;T为目标输出向量;GOAL为网络均方误差目标值,缺省值为0;SPREAD为径向基函数的分布系数,缺省值为1.0。

执行结果是创建一个径向基神经网络。可以看出,创建径向基网络时,函数newrb通过自动增加径向基神经元数的方法来不断地减小网络输出的均方误差,直到该误差达到参数

GOAL的要求,网络的训练结束,因此它可以获得比newrbe更小规模的径向基网络。

【例8-2】已知输入向量和目标输出向量为

P=[123]

T=[2.04.15.9]

设计一个径向基网络(本例M文件见光盘FLch8eg2)。

MATLAB程序代码如下:

P=[123];

T=[2.04.15.9];

net=newrb(P,T);%创建一个径向基神经网络

P=1.5;%输入一个新的样本值

Y=sim(net,P)

%仿真该网络

Y=

%运行结果

2.67558.3.4径向基网络的应用

径向基函数网络多用于函数逼近和分类问题的研究。

【例8-3】举例说明如何应用函数newrb()构建一个径向基网络,然后对一系列的数据点进行函数逼近(本例M文件见光盘FLch8eg3)。

(1)问题的提出。假设如下的输入/输出样本,输入向量为[-1,1]区间上的等间隔的数组成的向量P,相应的期望值向量为T:

P=-1:0.1:1;

T=[-0.9602-0.5770-0.07290.37710.64050.66000.4609...

0.1336-0.2013-0.4344-0.5000-0.3930-0.16470.0988...

0.30720.39600.34490.1816-0.0312-0.2189-0.3201];

以输入向量为横坐标,期望值为纵坐标,绘制训练样本的数据点,如图8-8所示。图8-8训练样本的分布仿真程序为

plot(P,T,′+′);%绘制输入/输出矢量点

title(′训练样本′);

xlabel(′输入矢量P′);

ylabel(′目标矢量T′);

目标是找到一个函数能够满足这21个数据点的输入/输出关系,其中一个方法就是通过构建径向基函数网络来进行曲线拟合。

(2)网络设计。设计一个径向基函数网络。仿真程序为

p=-3:.1:3;

a=radbas(p);

plot(p,a);%绘制输入/输出二维图形

title(′径向基传递函数′);%程序后不加“;”表示在生成的图形中显示该指令结果

xlabel(′输入p′);

ylabel(′输出a′);

绘制隐层神经元径向基传递函数的曲线,如图8-9所示。图8-9径向基传递函数每一个隐层神经元的权值和阈值都与径向基函数的位置和宽度有关系,输出层的线性神经元将这些径向基函数的权值相加。如果隐层神经元的数目足够,每一层的权值和域值正确,那么径向基函数网络就完全能够精确地逼近任意函数。如图8-10所示,其中三条实线表示单个径向基函数曲线,虚线表示三条曲线相加的结果。图8-10径向基传递函数权值之和从图8-10中可以看出,如果调整权值和阈值,就可以做到对任何函数曲线的拟合。应用newrb()函数可以快速构建一个径向基函数网络,并且网络自动根据输入向量和期望值进行调整,从而进行函数逼近,预先设定均方差精度eg以及散布常数sc:

eg=0.02;

sc=1;

net=newrb(P,T,eg,sc);%创建一个神经网络

newrb,neurons=0,sse=3.69051%设置网络参数

(3)网络测试。将网络输出和期望值随输入向量变化的曲线绘制在一张图上,就可以看出网络设计是否能够做到函数逼近,如图8-11所示。

plot(P,T,′+′);

xlabel(′输入′);xlabel(′输入向量P′),ylabel(′目标向量T′)

X=-1:.01:1;

Y=sim(net,X);%程序仿真

holdon;

plot(X,Y);

holdoff;

legend({′目标′,′输出′});%在图形中插入注释

图8-11中“+”点为样本数据点。仿真结果表明,应用径向基函数网络进行函数逼近是可行的图8-11网络输出和目标值比较8.4混沌时间序列建模及预测科学的目的就是要发掘出事物的因果关系。一个理论能否被接受,很重要的一个条件在于它能否对客观事物的发展做出一定的预测。混沌条件下的系统具有对初始状态敏感的“蝴蝶效应”,因而一般认为,混沌条件下系统行为具有不可长期预测性。另一方面,混沌理论的研究表明:混沌并非无序,混沌可以由简单确定性系统产生;混沌中存在有吸引子,吸引子具有吸引性和小扰动的稳定性,它作为一个整体是运动不变量。这表明,混沌条件下的系统行为具有可以预测的一面。混沌的动态系统具有确定性规则,如果我们发现了这个确定性规则,那么精确预测非线性动态系统将成为可能,但这往往是比较困难的。因此,所谓混沌序列,可以看做是考察混沌系统所得到的一组随时间变化的观察量值。混沌序列的建模与预测一般要经过两个步骤:相空间重构和非线性函数逼近。本节简要介绍其基本原理对所涉及的数学概念将不进行严格推导。8.4.1相空间重构

实际系统一般都是高维的,而我们往往只能得到这些高维系统的一维信息,即一组观测量值,或称一维标量时间序列。

相空间重构也叫动力系统重建,即通过一维的时间序列反向构造出原系统的相空间结构。目前较为常用的是延迟矢量法,该方法首先由帕卡德(Packard)等人提出,并由塔肯什(Takens)为之奠定了可靠的数学基础。它的基本思想是:系统中任一分量的演化都是由与之相互作用着的其它分量所决定的,因而这些相关分量的信息就隐含在任一分量的发展过程中。不失一般性,令x(t),t=1,2,…,N表示所研究的时间序列,可得到m维延迟矢量:

x(t)=[x(t),x(t-τ),…,x(t-(m-1)τ)](8-29)

式中,m称为嵌入维数,τ称为时间延迟量。

假设动力系统维数为d,塔肯什已证明,如果m≥2d+1,则重构的相空间可以将动力系统的许多特性保存下来,如吸引子维数等。这对于甚至不知道应该测量哪些变量而仅仅知道一个

数据序列,或者不能直接测量深层自变量而仅仅有表现于现象上的数据序列的研究人员来讲,也有了研究系统的动力行为的可能。

【例8-4】以Lorenz吸引子为例,其实现可采用MATLAB

中的SIMULINK,具体见图8-12(本例M文件见光盘FLch8eg4);系统在三维相空间的运动轨迹(奇怪吸引子)以及二维相平面的吸引子如图8-13所示。图8-12

Lorenz吸引子的实现图8-13不同角度看Lorenz吸引子8.4.2非线性函数逼近方法

塔肯什嵌入定理同时表示存在一光滑映射F,使得

x(t+τ)=F(x(t))

(8-30)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论