【《基于ISSA-LSSVM的配电网可靠性预测模型分析案例》8800字】_第1页
【《基于ISSA-LSSVM的配电网可靠性预测模型分析案例》8800字】_第2页
【《基于ISSA-LSSVM的配电网可靠性预测模型分析案例》8800字】_第3页
【《基于ISSA-LSSVM的配电网可靠性预测模型分析案例》8800字】_第4页
【《基于ISSA-LSSVM的配电网可靠性预测模型分析案例》8800字】_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于ISSA-LSSVM的配电网可靠性预测模型分析案例目录TOC\o"1-3"\h\u12696基于ISSA-LSSVM的配电网可靠性预测模型分析案例 1195301.1麻雀搜索算法 28181.2改进的麻雀搜索算法 46931.3ISSA性能测试 9112441.3.1测试函数 9152841.3.2参数设置 1487091.3.3算法性能对比分析 17179931.3.4算法收敛曲线对比分析 19192701.4最小二乘支持向量机 21165441.5基于改进麻雀搜索算法优化LSSVM的配电网可靠性预测模型 2516811.6模型评价指标 27考虑到配电网可靠性数据均为年份数据,且数据量较小,而最小二乘支持向量机(LSSVM)是一种专门处理小样本情况下的机器学习算法,并且能够有效克服神经网络易陷入局部极值和收敛速度过慢的问题,因此将其用于处理小样本配电网可靠性预测问题。然而LSSVM模型的预测精度主要由惩罚参数C和核参数决定,因此参数的优化尤为重要。在传统的LSSVM模型中,两个参数的取值大都根据经验而定,这样很容易导致模型的预测性能较差。为了找到合适的惩罚参数C和核参数,许多科研专家和学者引入群智能算法对其进行优化选择,文献[49]和文献[50]分别采用粒子群算法和遗传算法来优化LSSVM的参数,但是这些智能优化算法都有各自的局限性,存在收敛速度过慢和易陷入局部极值的问题。麻雀搜索算法作为一种新型的智能优化算法,具有参数设置简单,收敛速度快等优点。文献[51]指出新型的麻雀搜索算法相比其他智能算法具有更高的收敛精度和稳定性。但麻雀搜索算法同其他智能算法一样,在迭代后期仍然会出现种群多样性较少、易陷入局部极值的问题。因此本章提出了一种基于改进麻雀搜索算法(ISSA)优化最小二乘支持向量机的配电网可靠性预测模型,采用改进后的麻雀搜索算法来优化LSSVM模型的参数,从而达到最佳的预测效果。1.1麻雀搜索算法麻雀搜索算法(SparrowSearchAlgorithm,SSA)是于2020年由Xue等人[52]提出来的一种新型智能优化算法,该算法主要受麻雀捕食和反捕食行为的启发。麻雀集合矩阵如下:(4-1)式中,N表示麻雀的种群规模,i=(1,2,,N),d表示待优化问题变量的维数。所有麻雀的适应度矩阵表示如下:(4-2)(4-3)式中,Fx中的每个值表示个体的适应度值。麻雀种群分为发现者、跟随者和警戒者。每次迭代中选取适应度值相对较优的一部分麻雀作为发现者,一般占种群的10%20%,主要负责带领种群向有食物的地方前进,剩下为跟随者,而警戒者则是在整个种群中随机选取10%20%。发现者的位置更新方式如下:(4-4)式中,k表示当前迭代次数;j=(1,2,,d);QUOTEXi,jk表示在第k次迭代中第i只麻雀在第j维的位置;K表示最大迭代次数;z(0,1中的随机数;R2代表预警值且R20,1;ST代表安全阈值且ST0.5,1;Q代表服从正态分布的随机值;L是一个1×d的矩阵,内部元素均为1。当R2<ST,表示附近没有天敌,发现者可以对该区域进行广泛地搜索并寻找食物。如果R2ST,这就意味着其中有一部分麻雀已经发现了天敌,意识到了危险的存在,整个种群需要向着更加安全的地方迁移。跟随者的位置更新公式如下:(4-5)式中,Xworst表示当前全局最差的位置;XP表示发现者的最佳位置;A为1×d的矩阵,且矩阵中每个元素都随机赋值1或者-1;其中A+=AT(AAT)-1。当i>N/2时,表明第i个跟随者的适应度较差,需要去其他区域寻找食物。警戒者的位置更新公式为:(4-6)式中,Xbest表示目前的全局最佳位置;表示步长调整系数,为服从均值为0、方差为1的正态分布的随机数;m-1,1中的随机数;fi表示当前麻雀个体的适应度值;fg和fw分别表示当前的全局最优和最差适应度值。为防止(fi-fw)+QUOTEε=0使得分母为0,则将QUOTEε定为最小常数,本文设为10E-8。当fiQUOTE>fg时,表示麻雀处于种群的边缘地带,非常容易遭遇到危险。当fi=fg时,表明种群中心的麻雀察觉到了危险,需要向其他位置的麻雀靠拢。麻雀搜索算法的流程图如图4-1所示,具体步骤如下:(1)初始化参数,定义麻雀种群规模N,最大迭代次数K,发现者的比例PD,侦查者的比例SD,安全阈值ST等参数。(2)计算麻雀种群个体的适应度值并进行排序,找出当前最优和最差适应度值以及相对应的位置,从适应度值较优的麻雀中选择部分为发现者,剩余为跟随者,从麻雀中随机选取警戒者。(3)根据式(4-4)、(4-5)和(4-6)分别更新麻雀中发现者、跟随者和警戒者的位置,计算并更新每只麻雀的适应度值。(4)判断是否达到最大迭代次数,若已达到最大迭代次数,则输出全局最优适应度值以及最优麻雀个体所处的位置,否则,返回步骤2。图4-1SSA算法流程图Fig.4-1SSAalgorithmflowchart1.2改进的麻雀搜索算法针对麻雀搜索算法在迭代后期会出现种群多样性减小,容易陷入局部极值的问题,本章对SSA进行改进提出了多策略改进的麻雀搜索算法(ImprovedSparrowSearchAlgorithm,ISSA):在SSA的基础上引入了改进的Tent混沌初始化策略、自适应t分布策略和动态自适应权重,避免算法陷入局部极值且提高了算法的收敛性能。ISSA的改进之处如下:(1)改进的Tent混沌映射由于基本的SSA对种群初始化采用的是随机生成的方式,会导致麻雀种群分布不均匀。混沌映射具有规律性、遍历性等特点,因此本章采用混沌序列对麻雀的位置进行初始化。Logistic映射和Tent映射作为最常用的混沌映射,由图4-2的Logistic混沌序列分布图可以看出,Logistic映射取值分布在[0,0.1]和[0.9,1]之间的概率较高,存在很大的不均匀性,从而会对算法的寻优效率产生很大的影响。由图4-3的Tent混沌序列分布图可以看出,相比Logistic映射,Tent映射分布更加均匀。张娜等[53]指出在迭代的过程中,Tent混沌序列会出现陷入小周期点和不稳定周期点的问题,因此对在原先的Tent混沌映射表达式中加入了随机变量rand(0,1)×QUOTE1NT,改进后的Tent混沌序列分布图和分布直方图如图4-4所示,从图中可以看出,相比Logistic映射和基本Tent映射,改进之后的Tent映射取值分布更加均匀,具体表达式如下:(4-7)经过贝努利变换后的表达式如下:(4-8)式中,NT表示序列中粒子的数量,rand(0,1)表示[0,1]之间的随机数。本章采用改进的Tent混沌映射表达式产生混沌序列,步骤如下:=1\*GB3①产生(0,1)之间的随机数x0,即i=0。=2\*GB3②根据式(4-7)进行迭代计算,产生一个X序列,i自增1。=3\*GB3③当i到达最大迭代次数时,保存好X序列。=4\*GB3④将X序列的元素按照式(4-8)映射到麻雀个体上,得到Xnew。(4-9)式中,lb表示目标函数变量的最小值,ub表示目标函数变量的最大值。图4-2Logistic混沌序列分布Fig.4-2Logisticchaoticsequencedistribution图4-3Tent混沌序列分布Fig.4-3Tentchaoticsequencedistribution图4-4改进的Tent混沌序列分布Fig.4-4ImprovedTentchaoticsequencedistribution(2)自适应t分布策略t分布是学生分布的简称[54],其分布函数曲线形态由参数自由度的值n决定,如图4-5所示,当自由度n越小时,t分布曲线中间表现越低平,双尾翘得越高,整体越加平滑;当自由度n=1时,t分布为柯西分布,即。当自由度n越大时,t分布曲线中间表现越高耸,整体越加陡峭;当自由度n无限大时,t分布为高斯分布,即。图4-5t分布、高斯分布和柯西分布函数分布图Fig.4-5Distributionmapoftdistribution、GaussiandistributionandCauchydistributionfunction对麻雀位置利用自适应t分布进行更新如下式所示:(4-10)式中,xi为第i只麻雀个体的位置;QUOTExit表示经过t变异后的麻雀的位置;t(k)表示参数自由度为迭代次数k的t分布。当前麻雀种群的信息在此式中得到充分应用,当前期迭代次数k较小时,t分布类似柯西分布变异,此时的t分布算子大概率取得较大值,位置变异采取的步长较大,使得算法拥有较好的全局搜索能力;在迭代中期,t分布由柯西分布变异向高斯分布变异转变,此时的t分布算子大概率取值相对折中,使得算法同时兼顾全局和局部搜索能力;当后期迭代次数k较大时,t分布类似高斯分布变异,此时的t分布算子大概率取得较小值,位置变异采取的步长较小,使得算法拥有较好的局部搜索能力,该策略有利于算法找到全局最佳点。(3)动态自适应权重将惯性权重的思想引入到麻雀中的发现者的位置更新公式中并对其进行改进,在发现者位置更新方式中引入动态权重因子。的值与最大迭代次数K和当前迭代次数k有关,在迭代初期,迭代次数较小时,的值则较大,这样便能够很好地进行全局搜索;在迭代后期,迭代次数变大时,值则较小,此时便可以很好地进行局部搜索。此外,由于麻雀种群中的发现者从迭代开始时就向全局最优解靠近,且搜索区间小,容易出现陷入局部极值的问题,因此将上一代的全局最优解引入到发现者位置更新公式中,使得上一代发现者的位置和上一代全局最优解能够同时影响发现者的位置,由此便不会出现算法陷入局部最优的问题。权重系数的计算公式和改进后的发现者位置更新方式如下所示:(4-11)(4-12)式中,为上一代中第j维的全局最优解;rand表示0到1之间的随机数。融合改进的Tent混沌映射、自适应t分布和动态自适应权重的改进麻雀搜索算法的流程图如图4-6所示,具体步骤如下:(1)初始化参数,如麻雀种群规模N,最大迭代次数K,发现者的比例PD,侦查者的比例SD,安全阈值ST,t分布变异概率p等,并利用改进的Tent混沌映射初始化麻雀种群。(2)计算麻雀种群个体的适应度值并排序,找出当前最优和最差适应度值,以及相对应的位置。(3)从适应度较优的麻雀中选择部分麻雀为发现者,并按照式(4-12)更新其位置。(4)将剩余麻雀作为跟随者,并按照式(4-5)更新其位置。(5)从整个麻雀种群中随机选取部分麻雀为警戒者,并按照式(4-6)更新其位置。(6)如果rand<p,根据式(4-10)对每只麻雀进行自适应t分布操作。否则,转向步骤2。(7)计算每只麻雀经过t分布变异之后的适应度值,将经过t分布变异操作后新解的适应度值与原值进行比较,择优保留,并更新全局最优信息。(8)终止条件,如已达到最大迭代次数,则进行下一步,否则返回步骤2。(9)程序结束,输出最优结果。图4-6ISSA流程图Fig.4-6ISSAflowchart1.3ISSA性能测试1.3.1测试函数本章选择了6个典型的测试函数进行仿真实验,来比较遗传算法(GA)、粒子群算法(PSO)、基本麻雀搜索算法(SSA)和改进麻雀搜索算法(ISSA)这四种算法的性能,其中f1、f2和f3为单峰函数,f4、f5和f6为多峰函数,各函数的维度d分别为10维、30维和100维。为公平验证ISSA算法的有效性,测试在同一运行环境下运行,运用MATLAB2020a版本完成仿真,操作系统:MicrosoftWindows10,通用条件设置为相同,其中GA、PSO、SSA和ISSA算法各自独立运行20次,最大迭代次数设为1000。6个基准测试函数的公式及三维图如下所示。(1)Sphere函数(4-13)其中,xi[-100,100]。Sphere函数是由多个自变量的平方相加求和所得,只有一个全局最小值。当时,函数取得全局最小值min(f(x))=0。Sphere函数的三维图如图4-7所示。图4-7Sphere函数三维图Fig.4-73DmapofSpherefunction(2)Schwefel2.22函数(4-14)其中,xi[-10,10]。Schwefel2.22函数只有一个全局最小值,是由多个自变量绝对值的和与多个自变量绝对值的积相加而得。当时,函数取得全局最小值min(f(x))=0。Schwefel2.22函数的三维图如图4-8所示。图4-8Schwefel2.22函数三维图Fig.4-83DmapofSchwefel2.22function(3)Quartic函数(4-15)其中,xi[-1.28,1.28]。Quartic函数是一个偶次多项式函数,当自变量为正无穷或者负无穷时,函数值趋向于无穷。当函数值趋向于正无穷的情况下,此时的函数拥有全局最小值;当函数趋向于负无穷时,函数拥有全局最大值。除了上述两种极端情况下,该函数不可能出现其他局部最大值和最小值。当时,函数取得全局最小值min(f(x))=0。Quartic函数的三维图如图4-9所示。图4-9Quartic函数三维图Fig.4-93DmapofQuarticfunction(4)Rastrigin函数(4-16)其中,xi[-5.12,5.12]。Rastrigrin函数是一个多峰函数,当=(0,0,,0)时,取得全局最小值0。在{xi[-5.12,5.12],i=1,2,,d}的范围内存在无数个局部最小值点,该函数同时也是一个非线性的多模态函数,峰形高低起伏,所以很难找到全局最优点。Rastrigin函数的三维图如图4-10所示。图4-10Rastrigin函数三维图Fig.4-103DmapofRastriginfunction(5)Ackley函数(4-17)其中,xi[-32.768,32.768]。Ackley函数是多峰函数的一种,常被用来测试算法收敛速度。Ackley函数在原点处取得全局最优解0,该函数将指数函数和适度扩大的余弦进行重叠,构成一个新的连续函数,它的前进方向和方向梯度是不断变化的。同时由于该函数具有较高的搜索复杂度,因此在优化的过程中,随着谷峰对优化的影响越来越小,使得算法在寻优的过程中克服了陷入局部极值的缺陷,从而进一步提升寻优效果。Ackley函数的三维图如图4-11所示。图4-11Ackley函数三维图Fig.4-113DmapofAckleyfunction(6)Griewank函数(4-18)其中,xi[-600,600]。Griewank函数拥有若干个与问题维度相关的局部最小值点,在时,取得全局最小值0。该函数同时也是一个典型的非线性多模态函数,与其他函数相比拥有更广泛的搜索空间,数据局部极值分布范围更广,因此一般被视为优化算法较难处理的复杂多模态问题。Griewank函数的三维图如图4-12所示。图4-12Griewank函数三维图Fig.4-123DmapofGriewankfunction1.3.2参数设置各优化算法的参数设置:遗传算法的交叉概率和变异概率分别为0.9和0.2。粒子群算法的学习因子c1=1.5,c2=1.5,初始惯性权重W=0.8。改进麻雀搜索算法和基本麻雀搜索算法的安全阈值ST=0.6,发现者比例PD=0.2QUOTE,,侦查者的比例SD=0.1,其中改进麻雀搜索算法中的t分布变异概率为0.5。6个测试函数的取值范围、最优解信息如表4-1所示。在设置算法的种群规模时,本章充分考虑了种群规模对ISSA算法寻优性能的影响,选用了6个基准测试函数维度d=30时,对30、50和100共3种不同的种群规模进行了函数优化实验,具体的实验结果图见图4-13所示,图中适应度值为测试函数值。由图4-13可知,随着种群规模的增加,ISSA算法的寻优性能并没有发生明显的改变。因此,在保证实验公平性的同时减少算法计算的复杂度,在以下做算法性能对比实验时,各算法的种群规模均设为30。表4-1基准测试函数Tab.4-1Benchmarkingfunction函数类型取值范围最优值f1Sphere[-100,100]0f2Schwefel2.22[-10,10]0f3Quartic[-1.28,1.28]0f4Rastrigrin[-5.12,5.12]0f5Ackley[-32.768,32.768]0f6Griewank[-600,600]0(a)f1收敛曲线(b)f2收敛曲线(c)f3收敛曲线(d)f4收敛曲线(e)f5收敛曲线(f)f6收敛曲线图4-13不同种群规模下ISSA算法的收敛曲线Fig.4-13ConvergencecurvesofISSAalgorithmunderdifferentpopulationsizes1.3.3算法性能对比分析GA、PSO、SSA和ISSA算法优化基准测试函数f1~f6的具体结果如表4-2所示。表4-2记录了四种算法独立运行20次得到的平均值和标准差,其中加粗字体表示最好的结果。平均值和标准差的大小能够反映出每个算法的寻优精度和稳定性。表4-2测试函数优化结果Table4-2Comparisonoftestfunctionoptimizationresults函数算法平均值标准差平均值标准差平均值标准差d=10d=30d=100GA6.16E-043.02E-22.80E+006.59E+001.45E+011.33E+01f1PSO1.40E-041.18E-23.33E-015.77E+008.35E+002.82E+01SSA1.54E-161.08E-151.28E-132.21E-133.15E-141.62E-14ISSA0.00E+000.00E+000.00E+000.00E+000.00E+000.00E+00GA1.70E-017.21E-013.23E+003.95E-012.14E+011.16E+00f2PSO3.06E-033.72E-033.00E-011.51E-011.82E+015.68E+00SSA6.15E-081.86E-071.29E-063.00E-061.17E-071.49E-07ISSA8.55E-2000.00E+008.07E-2200.00E+005.50E-2280.00E+00GA7.60E-039.57E-023.52E-021.16E-012.16E-011.96E-01f3PSO8.30E-036.02E-022.01E-022.61E-017.70E-013.55E-01SSA2.30E-031.00E-033.50E-031.20E-031.60E-036.28E-04ISSA5.09E-053.81E-057.26E-056.63E-051.03E-055.73E-05GA1.76E-021.33E-011.20E+001.65E+007.97E+002.48E+00f4PSO1.99E-026.16E-018.22E+012.21E+001.69E+022.81E+00SSA2.75E-121.54E-125.07E-011.28E+001.79E+003.12E+00ISSA0.00E+000.00E+000.00E+000.00E+000.00E+000.00E+00GA8.97E+001.15E+001.74E+015.97E-011.98E+011.57E-01f5PSO1.60E-011.75E-011.19E+002.63E-011.57E+011.30E+00SSA3.20E-087.18E-082.61E-076.98E-071.48E-073.17E-07ISSA8.88E-160.00E+008.88E-160.00E+008.88E-160.00E+00GA1.09E+008.22E+002.25E+011.39E+011.05E+022.52E+02f6PSO1.35E-015.06E+001.31E+006.94E+011.57E+011.52E+02SSA1.26E-143.98E-143.86E-156.49E-157.71E-132.44E-12ISSA0.00E+000.00E+000.00E+000.00E+000.00E+000.00E+00由表4-2可知,对于单峰函数f1、f2和f3,随着维度的增加,GA和PSO的寻优精度大大降低,这是由算法的自身性能(易陷入局部极值)决定的,并且SSA的寻优精度也不是很高,因此可以说明GA、PSO和SSA并不适合解决高纬度问题。然而改进的ISSA算法,由于引入了自适应t分布策略,增加了算法跳出局部极值的能力,使得算法随着函数维度的增加,寻优精度进一步提高,相比其余三种算法,平均值和标准差均为最小,表现出极强的寻优精度和稳定性。另外在多峰函数f4、f5和f6中也是如此,随着维度的增加,GA、PSO和SSA的寻优精度依旧有所降低,而ISSA寻优的平均值并没有发生明显变化,相比其余三种算法,平均值和标准差依旧为最小,进一步表明了ISSA的寻优精度和稳定性明显优于其余三种算法。1.3.4算法收敛曲线对比分析基准测试函数曲线能够清楚地看出算法的收敛速度和收敛精度,以及算法跳出局部空间的能力。图4-14给出了ISSA、SSA、PSO和GA在6个测试函数(d=30)上的收敛曲线,其中横坐标为迭代次数,纵坐标为适应度值的对数lg(适应度值),这里的适应度值为测试函数值。(a)f1收敛曲线(b)f2收敛曲线(c)f3收敛曲线(d)f4收敛曲线(e)f5收敛曲线(f)f6收敛曲线图4-14四种算法在基准测试函数上的收敛曲线Fig.4-14Convergencecurvesoffouralgorithmsonbenchmarkfunctions由图4-14可知,对于不同的测试函数(d=30),GA、PSO和SSA在寻优的过程中早早就陷入局部极值,且无法跳出局部最优,导致算法收敛性能较弱。而ISSA在相同的迭代次数中能够寻优到更好的值,且无论是在收敛精度方面,还是在收敛速度方面,ISSA总是优于其他算法。其中曲线先出现拐点表明收敛速度快,lg(适应度值)越低表明收敛精度越高。因此本章可以采用ISSA来优化配电网可靠性预测模型的参数。1.4最小二乘支持向量机支持向量机(SupportVectorMachine,SVM)模型是Vapnik等人[55]于上个世纪60年代提出的一种机器学习算法,该算法主要应用于回归和分类两个方面。由于SVM采用的是统计学理论,其推理过程更加严谨,因此SVM在处理小样本的回归和分类问题上具有很好的应用前景。本章所使用的最小二乘支持向量机(LeastSquaresSupportVeotorMachine,LSSVM)模型是由Suykens等学者[56]在SVM的基础上进行改进所提出来的机器学习算法,即为改进的SVM,LSSVM和SVM的主要区别在于:(1)LSSVM将不等式约束转化为等式形式;(2)利用误差平方和损失函数作为损失经验,从而使得LSSVM可以将二次规划问题转化为线性方程问题。因此,LSSVM模型可以在很大程度上简化计算程度,提高运行效率。LSSVM的具体原理如下:假设给出组配电网可靠性训练数据样本集合(xi,yi),其中i=1,2,,l,xiRn为n维输入,yiR为一维输出,xi表示配电网可靠性影响因素数据,yi表示配电网可靠性指标数据。在最小二乘支持向量机处理配电网可靠性预测这一类回归问题时,通过非线性映射函数QUOTEφ()将原先低纬空间中的非线性问题转化为高维特征空间中线性回归,即在高维空间中,对样本的输入输出进行拟合[57]:(4-19)式中,w为权值向量;b为偏置量。定义优化问题时采用结构风险最小化原则,如下式所示:(4-20)式中:C为惩罚参数,C的值越高越容易出现过拟合的现象,反之则容易出现欠拟合的现象,因为需要对C进行合理的选择。ei为拟合误差。为了解决上述优化问题,用拉格朗日函数求解优化问题:(4-21)式中,R为拉格朗日乘子。根据(Karush-Kuhn-Tucker)KKT[58]的条件,对上式进行优化,即对w、b、ei和的偏导数等于0,得:(4-22)这样,在消除变量w和ei之后,上述优化问题就变为求解线性方程问题,如公式(4-23)所示:(4-23)式中,,,,I表示单位矩阵,K(xi,xj)表示选择的核函数,定义核函数K(xi,xj)=QUOTEφ(xi)QUOTEφ(xj)满足核函数充要条件Mercer原理,则预测模型可表示为:(4-24)式中,和b可由式(4-23)方程求解可得。最小二乘支持向量机的结构图如图4-15所示。图4-15最小二乘支持向量机结构图Fig.4-15Structurediagramofleastsquaressupportvectormachine在机器学习中,核函数一般是指利用线性分类器来解决非线性问题的核函数策略[59],如何选取合适的核函数是非常关键的。常用的核函数分为以下几种:(1)线性函数(4-25)(2)多项式函数(4-26)(3)径向基核函数(Radialbasisfunction,RBF)(4-27)(4)指数核函数(4-28)本章采用的是径向基核函数(RBF),主要原因在于:(1)该函数解析性好,方便于进行理论分析;(2)该函数表现形式简单,有利于减少计算复杂度;(3)该函数径向对称,具有良好的光滑特性[60-62]。其中,在径向基核函数中,表示核函数的参数。核参数代表支持向量之间的相关程度,且与样本空间范围有较强的相关性。如果的取值较大,就表明支持向量之间的交互程度越强,难以达到较高的精度;反之,若的取值较小,就表明支持向量之间的关系较为松弛,则越容易导致学习的复杂性,无法保证更好的推广能力。因此需要对进行合理的选择。根据以上理论可知,最小二乘支持向量机(LSSVM)作为改进的支持向量机(SVM),具有如下优点:(1)LSSVM模型中将不等式约束替换为等式约束,通过求解线性方程来解决优化问题,从而证明了LSSVM模型所需的存储空间和计算量都较小,这也是LSSVM模型得到广泛应用的具体原因。(2)LSSVM模型在优化的过程中,采用结构风险最小化原则来选择各种损失函数,而且所需的参数少,便于实际工程应用。(3)由于LSSVM模型的支持向量在时间序列上具有连续性,因此可以很好的反映连续的动态特性,为构建递归的模型结构提供了依据[63]。综上所述,LSSVM模型的拟合效果和预测精度很大程度上由惩罚参数C和核参数决定。在传统的LSSVM模型中,这两个参数大都根据经验而定,这很有可能导致在预测的过程中随机性强且精度低。因此,需要对这两个参数进行优化选择。LSSVM模型在配电网可靠性预测方面的流程图如4-16所示,具体流程如下:(1)选取配电网可靠性数据,将数据划分为训练数据和测试数据。(2)将径向基核函数作为LSSVM模型的核函数,并对LSSVM模型参数进行初始化。(3)利用训练数据对LSSVM模型进行训练,保存好训练好的模型。(4)调用训练好的模型,并对测试数据进行预测,得到最终的预测结果。图4-16LSSVM模型预测流程图Fig.4-16LSSVMm

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论