




已阅读5页,还剩12页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
简单易学的机器学习算法极限学习机(ELM)一、极限学习机的概念 极限学习机(Extreme Learning Machine) ELM,是由黄广斌提出来的求解单隐层神经网络的算法。 ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。二、极限学习机的原理ELM是一种新型的快速学习算法,对于单隐层神经网络,ELM 可以随机初始化输入权重和偏置并得到相应的输出权重。(选自黄广斌老师的PPT)对于一个单隐层神经网络(见Figure 1),假设有个任意的样本,其中,。对于一个有个隐层节点的单隐层神经网络可以表示为其中,为激活函数,为输入权重,为输出权重,是第个隐层单元的偏置。表示和的内积。 单隐层神经网络学习的目标是使得输出的误差最小,可以表示为即存在,和,使得可以矩阵表示为其中,是隐层节点的输出,为输出权重,为期望输出。,为了能够训练单隐层神经网络,我们希望得到,和,使得其中,这等价于最小化损失函数传统的一些基于梯度下降法的算法,可以用来求解这样的问题,但是基本的基于梯度的学习算法需要在迭代的过程中调整所有参数。而在ELM算法中, 一旦输入权重和隐层的偏置被随机确定,隐层的输出矩阵就被唯一确定。训练单隐层神经网络可以转化为求解一个线性系统。并且输出权重可以被确定其中,是矩阵的Moore-Penrose广义逆。且可证明求得的解的范数是最小的并且唯一。三、实验 我们使用简单易学的机器学习算法Logistic回归中的实验数据。原始数据集我们采用统计错误率的方式来评价实验的效果,其中错误率公式为:对于这样一个简单的问题,。MATLAB代码主程序plainview plaincopy1. %主函数,二分类问题2. 3. %导入数据集4. A=load(testSet.txt);5. 6. data=A(:,1:2);%特征7. label=A(:,3);%标签8. 9. N,n=size(data);10. 11. L=100;%隐层节点个数12. m=2;%要分的类别数13. 14. %-初始化权重和偏置矩阵15. W=rand(n,L)*2-1;16. b_1=rand(1,L);17. ind=ones(N,1);18. b=b_1(ind,:);%扩充成N*L的矩阵19. 20. tempH=data*W+b;21. H=g(tempH);%得到H22. 23. %对输出做处理24. temp_T=zeros(N,m);25. fori=1:N26. iflabel(i,:)=027. temp_T(i,1)=1;28. else29. temp_T(i,2)=1;30. end31. end32. T=temp_T*2-1;33. 34. outputWeight=pinv(H)*T;35. 36. %-画出图形37. x_1=data(:,1);38. x_2=data(:,2);39. holdon40. fori=1:N41. iflabel(i,:)=042. plot(x_1(i,:),x_2(i,:),.g);43. else44. plot(x_1(i,:),x_2(i,:),.r);45. end46. end47. 48. output=H*outputWeight;49. %-计算错误率50. tempCorrect=0;51. fori=1:N52. maxNum,index=max(output(i,:);53. index=index-1;54. ifindex=label(i,:);55. tempCorrect=tempCorrect+1;56. end57. end58. 59. errorRate=1-tempCorrect./N;激活函数plainview plaincopy1. functionH=g(X)2. H=1./(1+exp(-X);3. endELM(Extreme Learning Machine)是一种新型神经网络算法,最早由Huang于2004年提出【Extreme learningmachine: a new learning scheme of feedforward neural networks】。与SVM,传统神经网络相比,ELM的训练速度非常快,需要人工干扰较少,对于异质的数据集其泛化能力很强。Huang在【Extreme learning machines: a survey,2011】这篇论文中对ELM进行了总结,包括最初的ELM算法和后来被发展延伸的ELM算法(比如在线序列ELM算法、增量ELM算法和集成ELM算法等),里面的很多知识点值得学习。ELM的原理从神经网络的结构上来看,ELM是一个简单的SLFN,SLFN示意图如下:该SLFN包括三层:输入层、隐含层和输出层(忽略输入层则为两层)。其中隐含层包括L个隐含神经元,一般情况下L远小于N,输出层的输出为m维的向量,对于二分类问题,显然该向量是一维的。对于一个训练数据样本,忽略输入层和隐含层而只考虑隐含层神经元的输出和输出层,则神经网络的输出函数表达式为:ai和bi是隐含层节点的参数,表示第i个隐含层神经元和输出神经元之间的连接权值,即它是一个m维的权值向量。公式里面的G是隐含层神经元的输出。针对加法型隐含层节点,G为:其中,小g为激励函数,激励函数可以是线性函数,也可以是sigmoid函数;针对RBF型隐含层节点,G为:ai和bi分别表示了第i个径向基函数节点的中心和影响因子。神经网络输出函数可以写成:,其中:如果神经网络能够无误差的预测训练样本,那么隐含层和输出层的权值是有解的,特别的,当L=N时,肯定有解。但是实际问题中,L往往是远小于N的,那么求解权值向量的问题是无解的,即网络输出和实际值之间有误差,可以定义代价函数为:接下来如何求解最优的权值向量,使得损失函数J最小呢?针对这个问题ELM分两种情况解决:a.如果H是列满秩的,那么可以通过最小二乘找到最佳的权值,其解为:,其中:b.如果H是非列满秩的,则使用奇异值分解求解H的广义逆来计算最佳权值。和BP使用梯度下降迭代更新所有层之间权值不同,ELM不调整SLFN的输入层和隐含层的权值,这些权值是随即设定的,因此ELM的训练速度非常快。ELM注重于隐含层到输出层的权值的选取,其采用的方法是最小二乘。ELM算法一般可以描述如下:在Huang的survey中描述了一种思想,该思想把SVM也看成了神经网络,该思想把神经网络的输入层到最后一层隐含层的部分或者SVM核函数映射的部分都看成了从输入空间到一个新的空间的转换,然后,BP会将误差反向传播更新权值使得误差最小化,而SVM则力求找到最大分界间隔的分界面,将新空间映射到输出空间,从这个角度来看,SVM确实可以看成是一种神经网络。ELM最初算法就如上所述,从2004年至今,后来的学者对其进行了很多改进,主要包括对输入层和隐含层权值随即确定权值的优化、求解隐含层和输出层权值的优化(使得ELM更适应于噪声数据集)、核函数ELM以及加入了正则化项的损失函数(求解结构风险而不再是经验风险)、ELM和其他方法相结合等。ELM为神经网络的结构设计提供了一个新的思路,使我们更好地理解神经网络,但是还有很多问题需要解决,比如隐含层节点个数的确定,正则化项的选择等等。作为一个性能很好的机器,我们也可以将其应用到诸多交叉学科的应用中。极限学习机(ELM)算法的matlab与C+实现 极限学习机的原理极限学习机(Extreme learning machine,ELM)是单隐层神经网络的算法,其最大特点就是能在保证学习精度的前提下比传统的学习算法快。其结构如下图所示:对于一个单隐层神经网络,假设有N个任意的样本(Xi,ti),其中,Xi=xi1,xi2,xinTRnti=ti1,ti2,timTRm一个有L个隐层节点的单隐层神经网络可以表示为:i=1Lih(WiXj+bi)=ojj=1,N其中,h(x)为激活函数,Wi=wi1,wi2,winT为输入权重,i为输出权重,bi是第个隐层单元的偏置。WiWj表示Wi和Wj的内积。单隐层神经网络学习的目标是使得输出的误差最小,可以表示为:j=1Nojtj=0即存在i,Wi和 bi使得i=1Lih(WiXj+bi)=tjj=1,N可以矩阵表示为:H=T其中,是H隐层节点的输出,为输出权重,为T期望输出。H(W1,WL,b1,bL,X1,XL)=h(W1X1+b1)h(W1XN+b1)h(WLX1+bL)h(WLXN+bL)=T1TLT=TT1TTNNm传统的一些基于梯度下降法的算法,可以用来求解这样的问题,但是基本的基于梯度的学习算法需要在迭代的过程中调整所有参数。而在ELM算法中, 一旦输入权重Wi和隐层的偏置bi被随机确定,隐层的输出矩阵就被唯一确定。训练单隐层神经网络可以转化为求解一个线性系统H=T。并且输出权重可以被确定。=H+T其中,H+是矩阵H的Moore-Penrose广义逆。且可证明求得的解的范数是最小的并且唯一。以一个简单的二分类为例,分别用matlab和c+实现。matlab代码如下:traindata=load(traindata.txt);feature=traindata(:,1:2);%特征label=traindata(:,3);%标签X=feature;N,n=size(X);L=100;m=2;%二分类W=rand(n,L)*2-1;%权重-1到1b_1=rand(1,L);b=ones(N,1)*b_1;H=1./(1+exp(-X*W+b);temp_T=zeros(N,m);for i=1:N if(label(i)=1) temp_T(i,1)=1; temp_T(i,2)=0; else temp_T(i,1)=0; temp_T(i,2)=1; endendT=temp_T*2-1;beta=pinv(H)*T;x_1=X(:,1);x_2=X(:,2);hold onfor i=1:N if(label(i)=1) plot(x_1(i),x_2(i),.g); else plot(x_1(i),x_2(i),.r); endc+代码如下,这里的矩阵运算采用Eigen工具包,最难的地方就是广义逆矩阵怎么求,参照网上的资源,代码如下:#include #include #include #include #include #include using namespace std;using namespace Eigen;templatebool pseudoInverse(const _Matrix_Type_ &a, _Matrix_Type_ &result, double epsilon = std:numeric_limits:epsilon() Eigen:JacobiSVD svd = a.jacobiSvd(Eigen:ComputeThinU | Eigen:ComputeThinV); if (a.rows() tolerance).select(svd.singularValues().array().inverse(), 0).matrix().asDiagonal() * svd.matrixU().adjoint(); / return false; else typename _Matrix_Type_:Scalar tolerance = epsilon * std:max(a.cols(), a.rows() * svd.singularValues().array().abs().maxCoeff(); / Eigen:JacobiSVD svd = a.jacobiSvd(Eigen:ComputeThinU | Eigen:ComputeThinV); / typename _Matrix_Type_:Scalar tolerance = epsilon * std:max(a.cols(), a.rows() * svd.singularValues().array().abs().maxCoeff(); result = svd.matrixV() * (svd.singularValues().array().abs() tolerance).select(svd.singularValues().array().inverse(), 0).matrix().asDiagonal() * svd.matrixU().adjoint(); return true;int main() ifstream trainfile; trainfile.open(traindata.txt); vectorvector traindata; vector rowdata; double temp3; while (!trainfile.eof() for (int i = 0; i tempi; rowdata.push_back(tempi); traindata.push_back(rowdata); rowdata.erase(rowdata.begin(), rowdata.end(); trainfile.close(); MatrixXd feature(traindata.size(), 2); VectorXd label(traindata.size(); for (int i = 0; i traindata.size(); i+) for (int j = 0; j 3; j+) if (j 2) feature(i,j) = traindataij; else label(i) = traindataij; int L = 50;/隐含层数 int m = 2;/二分类 int n = 2;/特
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025-2026学年南昌市数学三年级第一学期期末学业水平测试试题含解析
- 2024年湘西土家族苗族自治州永顺县数学三年级第一学期期末综合测试试题含解析
- 棕色中国风清明上河图
- 2025年行政管理语文能力规划试题及答案
- 完备复习资料执业医师考试试题及答案
- 自考行政管理课程总结试题及答案
- 微创手术技术执业医师考试试题及答案
- 执业护士考试科学护理论证题目试题及答案
- 自考行政管理科研方向试题及答案探讨
- 医学文献检索技巧试题及答案探讨
- T∕HGJ 12400-2021 石油化工仪表线缆选型设计标准
- DB64-266-2018:建筑工程资料管理规程-201-250
- 2024年无人机飞行表演服务合同
- 2024年普通高等学校招生全国统一考试(新高考I卷)
- 《船舶管理》助理船副考试复习题库(含答案)
- 事故隐患内部举报奖励制度
- JGJ162-2014建筑施工模板安全技术规范-20211102195200
- 政工师(高级)理论考试题库及答案
- 【目的论视角下电子游戏的本土化翻译探究:以英雄联盟为例开题报告2500字】
- TGXTC 0008-2024 鹰嘴桃流胶病防治技术规程
- 冶炼烟气制酸工艺设计规范
评论
0/150
提交评论