深度置信网络BDN课件_第1页
深度置信网络BDN课件_第2页
深度置信网络BDN课件_第3页
深度置信网络BDN课件_第4页
深度置信网络BDN课件_第5页
已阅读5页,还剩57页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

PPT模板下载:/moban/

深度置信网络BDN

PPT模板下载:/moban/深度总结与展望DBN(深度信念网)RBM(受限玻尔兹曼机)深度学习概述目录总结与展望DBN(深度信念网)RBM(受限玻尔兹曼机)深度学深度学习概述深度学习概述浅层学习是机器学习的第一次浪潮人工神经网络(BP算法)—虽被称作多层感知机,但实际是种只含有一层隐层节点的浅层模型SVM、Boosting、最大熵方法(如LR,LogisticRegression)—带有一层隐层节点(如SVM、Boosting),或没有隐层节点(如LR)的浅层模型局限性:有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受限。基本概念浅层学习与深度学习浅层学习是机器学习的第一次浪潮基本概念浅层学习与深度学习2006年,加拿大多伦多大学教授、机器学习领域的泰斗GeoffreyHinton在《科学》上发表论文提出深度学习主要观点:1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类;2)深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wisepre-training)来有效克服,逐层初始化可通过无监督学习实现的。基本概念2006年,加拿大多伦多大学教授、机器学习领域的泰斗Geof深度学习:深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示深度神经网络:含有多个隐层的神经网络基本概念深度学习:深度学习通过组合低层特征形成更加抽象的高层表示属性深度学习:一种基于无监督特征学习和特征层次结构的学习方法可能的的名称:深度学习特征学习无监督特征学习基本概念深度学习:一种基于无监督特征学习和特征层次结构的学习方法基本深度学习的优势:能以更加紧凑简洁的方式来表达比浅层网络大得多的函数集合训练深度学习的困难:(1)数据获取问题考虑到深度网络具有强大的表达能力,在不充足的数据上进行训练将会导致过拟合(2)局部极值问题与梯度下降法有关基本概念深度学习的优势:基本概念深度学习本质:通过构建多隐层的模型和海量训练数据(可为无标签数据),来学习更有用的特征,从而最终提升分类或预测的准确性。“深度模型”是手段,“特征学习”是目的。与浅层学习区别:1)强调了模型结构的深度,通常有5-10多层的隐层节点;2)明确突出了特征学习的重要性,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。深度学习本质:通过构建多隐层的模型和海量训练数据(可为无标签深度学习好处:可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示。深度学习好处:可通过学习一种深层非线性网络结构,实现复杂函数深度学习vs.神经网络相同点:二者均采用分层结构,系统包括输入层、隐层(多层)、输出层组成的多层网络,只有相邻层节点之间有连接,同一层以及跨层节点之间相互无连接,每一层可以看作是一个logistic回归模型。不同点:神经网络:采用BP算法调整参数,即采用迭代算法来训练整个网络。随机设定初值,计算当前网络的输出,然后根据当前输出和样本真实标签之间的差去改变前面各层的参数,直到收敛;深度学习:采用逐层训练机制。采用该机制的原因在于如果采用BP机制,对于一个deepnetwork(7层以上),残差传播到最前面的层将变得很小,出现所谓的gradientdiffusion(梯度扩散)。深度学习vs.神经网络相同点:二者均采用分层结构,系统包神经网络的局限性:1)比较容易过拟合,参数比较难调整,而且需要不少技巧;2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优;神经网络的局限性:深度学习训练过程不采用BP算法的原因(1)反馈调整时,梯度越来越稀疏,从顶层越往下,误差校正信号越来越小;(2)收敛易至局部最小,由于是采用随机值初始化,当初值是远离最优区域时易导致这一情况;(3)BP算法需要有标签数据来训练,但大部分数据是无标签的;深度学习训练过程不采用BP算法的原因深度学习训练过程第一步:采用自下而上的无监督学习1)逐层构建单层神经元。2)每层采用wake-sleep算法进行调优。每次仅调整一层,逐层调整。这个过程可以看作是一个featurelearning的过程,是和传统神经网络区别最大的部分。深度学习训练过程第一步:采用自下而上的无监督学习深度学习训练过程wake-sleep算法:1)wake阶段:认知过程,通过下层的输入特征(Input)和向上的认知(Encoder)权重产生每一层的抽象表示(Code),再通过当前的生成(Decoder)权重产生一个重建信息(Reconstruction),计算输入特征和重建信息残差,使用梯度下降修改层间的下行生成(Decoder)权重。也就是“如果现实跟我想象的不一样,改变我的生成权重使得我想象的东西变得与现实一样”。2)sleep阶段:生成过程,通过上层概念(Code)和向下的生成(Decoder)权重,生成下层的状态,再利用认知(Encoder)权重产生一个抽象景象。利用初始上层概念和新建抽象景象的残差,利用梯度下降修改层间向上的认知(Encoder)权重。也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念”。深度学习训练过程wake-sleep算法:深度学习训练过程EncoderDecoderInputImageClasslabele.g.FeaturesEncoderDecoderFeaturesEncoderDecoderAutoEncoder:深度学习训练过程EncoderDecoderInputIm深度学习训练过程第二步:自顶向下的监督学习

这一步是在第一步学习获得各层参数进的基础上,在最顶的编码层添加一个分类器(例如罗杰斯特回归、SVM等),而后通过带标签数据的监督学习,利用梯度下降法去微调整个网络参数。深度学习的第一步实质上是一个网络参数初始化过程。区别于传统神经网络初值随机初始化,深度学习模型是通过无监督学习输入数据的结构得到的,因而这个初值更接近全局最优,从而能够取得更好的效果。深度学习训练过程第二步:自顶向下的监督学习

点击添加文本点击添加文本点击添加文本点击添加文本深度神经网络的演化神经网络深度神经网络多层感知器点击添加文本点击添加文本点击添加文本点击添加文本深度神经网络在有了多层感知器之后为什么还需要提出深度学习?在有了多层感知器之后为什么还需要提出深度学习?1)强调了模型结构的深度,通常有5-10多层的隐层节点;2)明确突出了特征学习的重要性,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。3)可通过学习一种深层非线性网络结构,实现复杂函数逼近,表征输入数据分布式表示。深度神经网络1)强调了模型结构的深度,通常有5-10多层的隐层节点;深度深度神经网络神经网络:深度学习:深度神经网络神经网络:1)自动编码器(AutoEncoder)2)稀疏自编码(SparseAutoEncoder)3)卷积神经网络4)限制玻尔兹曼机降噪自动编码器(DenoisingAutoEncoders);深度玻尔兹曼机(DeepBoltzmannMachine);卷积波尔兹曼机;深度学习的具体模型与方法1)自动编码器(AutoEncoder)深度学习的具体模RBM(受限玻尔兹曼机)RBM受限玻尔兹曼机(RestrictedBoltzmannMachine,简称RBM)是由Hinton和Sejnowski于1986年提出的一种生成式随机神经网络(generativestochasticneuralnetwork),该网络由一些可见单元(visibleunit,对应可见变量,亦即数据样本)和一些隐藏单元(hiddenunit,对应隐藏变量)构成,可见变量和隐藏变量都是二元变量,亦即其状态取{0,1}。整个网络是一个二部图,只有可见单元和隐藏单元之间才会存在边,可见单元之间以及隐藏单元之间都不会有边连接基本概念受限玻尔兹曼机

上图所示的RBM含有9个可见单元(构成一个向量v)和3个隐藏单元(构成一个向量h),W是一个9*3的矩阵,表示可见单元和隐藏单元之间的边的权重。受限玻尔兹曼机(RestrictedBoltzmannMRBM是玻尔兹曼机(Boltzmannmachine,BM)的一种特殊拓扑结构。BM的原理起源于统计物理学,是一种基于能量函数的建模方法,能够描述变量之间的高阶相互作用,BM的学习算法较复杂,但所建模型和学习算法有比较完备的物理解释和严格的数理统计理论作基础。BM是一种对称耦合的随机反馈型二值单元神经网络,由可见层和多个隐层组成,网络节点分为可见单元(visibleunit)和隐单元(hiddenunit),用可见单元和隐单元来表达随机网络与随机环境的学习模型,通过权值表达单元之间的相关性。BM是由Hinton和Sejnowski提出的一种随机递归神经网络,可以看做是一种随机生成的Hopfield网络,是能够通过学习数据的固有内在表示解决困难学习问题的最早的人工神经网络之一,因样本分布遵循玻尔兹曼分布而命名为BM。BM由二值神经元构成,每个神经元只取1或0这两种状态,状态1代表该神经元处于接通状态,状态0代表该神经元处于断开状态。基本概念RBM是玻尔兹曼机(Boltzmannmachine,BM正如名字所提示的那样,受限玻尔兹曼机是一种玻尔兹曼机的变体,但限定模型必须为二分图。模型中包含对应输入参数的输入(可见)单元和对应训练结果的隐单元,图中的每条边必须连接一个可见单元和一个隐单元。(与此相对,“无限制”玻尔兹曼机包含隐单元间的边,使之成为递归神经网络。)这一限定使得相比一般玻尔兹曼机更高效的训练算法成为可能,特别是基于梯度的对比分歧(contrastivedivergence)算法。基本概念受限玻尔兹曼机正如名字所提示的那样,受限玻尔兹曼机是一种玻尔兹曼机的变体,“预训练”方法——限制玻尔兹曼机(RBM)RBM网络共有2层,其中第一层称为可视层,一般来说是输入层,另一层是隐含层,也就是我们一般指的特征提取层。是可视层与隐藏层之间的权重矩阵,是可视节点的偏移量,是隐藏节点的偏移量。隐含层可视层“预训练”方法——限制玻尔兹曼机(RBM)RBM网络共有2层“预训练”方法——限制玻尔兹曼机(RBM)“预训练”方法——限制玻尔兹曼机(RBM)RBM的学习目标-最大化似然(Maximizinglikelihood)RBM是一种基于能量(Energy-based)的模型,其可见变量v和隐藏变量h的联合配置(jointconfiguration)的能量为:其中θ是RBM的参数{W,a,b},W为可见单元和隐藏单元之间的边的权重,b和a分别为可见单元和隐藏单元的偏置(bias)。有了v和h的联合配置的能量之后,我们就可以得到v和h的联合概率:其中Z(θ)是归一化因子,也称为配分函数(partitionfunction)。RBM的学习目标-最大化似然(类似于可能性)(1)(2)RBM的学习目标-最大化似然(Maximizinglike根据式子(1),可以将(2)式写为:我们希望最大化观测数据的似然函数P(v),P(v)可由式(3)求P(v,h)对h的边缘分布得到:通过最大化P(v)来得到RBM的参数,最大化P(v)等同于最大化log(P(v))=L(θ):(3)(4)(5)根据式子(1),可以将(2)式写为:(3)(4)(5)定义能量函数:联合概率分布:Z为归一化系数,其定义为:输入层的边缘概率为:限制玻尔兹曼机(RBM)定义能量函数:联合概率分布:限制玻尔兹曼机(RBM)可以通过随机梯度下降(stochasticgradientdescent)来最大化L(θ),首先需要求得L(θ)对W的导数经过简化可以得到:(7)中后项等于(6)(7)(8)可以通过随机梯度下降(stochasticgradient可以通过随机梯度下降(stichasticgradientdescent)来最大化L(θ),首先需要求得L(θ)对W的导数经过简化可以得到:(7)中后项等于式子(7)中的前者比较好计算,只需要求vihj在全部数据集上的平均值即可,而后者涉及到v,h的全部2|v|+|h|种组合,计算量非常大(基本不可解)。(6)(7)(8)可以通过随机梯度下降(stichasticgradient计算方法计算方法网络学习的目的是最大可能的拟合输入数据,即最大化。Hinton提出了一种快速算法,称作contrastivedivergence(对比分歧)算法。这种算法只需迭代k次,就可以获得对模型的估计,而通常k等于1.CD算法在开始是用训练数据去初始化可见层,然后用条件分布计算隐层;然后,再根据隐层,同样,用条件分布来计算可见层。这样产生的结果是对输入的一个重构。根据CD算法:其中,是学习率,是样本数据的期望,是重构后可视层数据的期望网络学习的目的是最大可能的拟合输入数据,即最大化RBM的学习方法-CD(ContrastiveDivergence,对比散列)网络学习的目的是最大可能的拟合输入数据,即最大化。Hinton提出了一种快速算法,称作contrastivedivergence(对比分歧,又称对比散列)算法。这种算法只需迭代k次,就可以获得对模型的估计,而通常k等于1.CD算法在开始是用训练数据去初始化可见层,然后用条件分布计算隐层;然后,再根据隐层,同样,用条件分布来计算可见层。这样产生的结果是对输入的一个重构。根据CD算法:权值更新RBM的学习方法-CD(ContrastiveDivergRBM的学习方法-CD(ContrastiveDivergence,对比散列)首先根据数据v来得到h的状态,然后通过h来重构(Reconstruct)可见向量v1,然后再根据v1来生成新的隐藏向量h1。因为RBM的特殊结构(层内无连接,层间有连接),所以在给定v时,各个隐藏单元hj的激活状态之间是相互独立的,反之,在给定h时,各个可见单元的激活状态vi也是相互独立的,可得到:RBM的学习方法-CD(ContrastiveDiverg深度置信网络BDNppt课件抽样概率重构的可见向量v1和隐藏向量h1就是对P(v,h)的一次抽样,多次抽样得到的样本集合可以看做是对P(v,h)的一种近似,使得式子(7)的计算变得可行。抽样概率RBM的权重的学习算法:取一个样本数据,把可见变量的状态设置为这个样本数据。随机初始化W。根据式(9)的第一个公式来更新隐藏变量的状态,亦即hj以P(hj=1|v)的概率设置为状态1,否则为0。然后对于每个边vihj,计算Pdata(vihj)=vi*hj(vi和hj的状态都是取{0,1})。根据h的状态和式(9)的第二个公式来重构v1,并且根据v1和式(9)的第一个公式来求得h1,计算Pmodel(v1ih1j)=v1i*h1j。更新边vihj的权重Wij为Wij=Wij+alpha*(Pdata(vihj)-Pmodel(v1ih1j))。取下一个数据样本,重复1-4的步骤。以上过程迭代K次。RBM的权重的学习算法:DBN(深度信念网)DBN深度学习深度学习的实质,是通过构建具有很多隐层的机器学习模型组合低层特征形成更加抽象的高层来表示属性类别或特征,以发现数据的分布式特征。其动机在于建立模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据,例如图像,声音和文本。因此,“深度模型”是手段,“特征学习”是目的。深度学习的核心思路如下:①无监督学习用于每一层网络的pre-train;②每次用无监督学习只训练一层,将其训练结果作为其高一层的输入;③用自顶而下的监督算法去调整所有层。深度学习深度学习的实质,是通过构建具有很多隐层的机器学习模型

逐层迭代推断FineTurningDeepBeliefNetworksdatahiddenvariableshiddenvariableshiddenvariableslikelihoodWpriorv1h1v0h0v2h2逐层迭代推断DeepBeliefNetworks深度信念网络(DeepBeliefNetwork,DBN)由GeoffreyHinton在2006年提出。它是一种生成模型,通过训练其神经元间的权重,我们可以让整个神经网络按照最大概率来生成训练数据。我们不仅可以使用DBN识别特征、分类数据,还可以用它来生成数据。右→面的图片展示的是用DBN识别手写数字:图1用深度信念网络识别手写数字。图中右下角是待识别数字的黑白位图,它的上方有三层隐性神经元。每一个黑色矩形代表一层神经元,白点代表处于开启状态的神经元,黑色代表处于关闭状态的神经元。注意顶层神经元的左下方即使别结果,与画面左上角的对应表比对,得知这个DBN正确地识别了该数字。DBNs是一个概率生成模型,与传统的判别模型的神经网络相对,生成模型是建立一个观察数据和标签之间的联合分布,对P(Observation|Label)和P(Label|Observation)都做了评估,而判别模型仅仅而已评估了后者,也就是P(Label|Observation)。对于在深度神经网络应用传统的BP算法的时候,DBNs遇到了以下问题:(1)需要为训练提供一个有标签的样本集;(2)学习过程较慢;(3)不适当的参数选择会导致学习收敛于局部最优解。深度信念网络(DeepBeliefNetwork,DDBN是由多层RBM组成的一个神经网络,它既可以被看作一个生成模型,也可以当作判别模型,其训练过程是:使用非监督贪婪逐层方法去预训练获得权值。DBN由多层神经元构成,这些神经元又分为显性神经元和隐性神经元(以下简称显元和隐元)。显元用于接受输入,隐元用于提取特征。因此隐元也有个别名,叫特征检测器(featuredetectors)。最顶上的两层间的连接是无向的,组成联合内存(associativememory)。较低的其他层之间有连接上下的有向连接。最底层代表了数据向量(datavectors),每一个神经元代表数据向量的一维。DBN的组成元件是受限玻尔兹曼机(RestrictedBoltzmannMachines,RBM)。训练DBN的过程是一层一层地进行的。在每一层中,用数据向量来推断隐层,再把这一隐层当作下一层(高一层)的数据向量。这些网络被“限制”为一个可视层和一个隐层,层间存在连接,但层内的单元间不存在连接。隐层单元被训练去捕捉在可视层表现出来的高阶数据的相关性。不考虑最顶构成一个联想记忆(associativememory)的两层,一个DBN的连接是通过自顶向下的生成权值来指导确定的,RBMs就像一个建筑块一样,相比传统和深度分层的sigmoid信念网络,它能易于连接权值的学习。DBN是由多层RBM组成的一个神经网络,它既可以被看作不同的称呼:DeepBeliefNetwork,DBN深度信念网络;深度置信网;深信度网络;深信网;多层置信网络;......不同的称呼:DBN神经网络模型

使用BP算法单独训练每一层的时候,我们发现,必须丢掉网络的第三层,才能级联自联想神经网络。然而,有一种更好的神经网络模型,这就是受限玻尔兹曼机。使用层叠波尔兹曼机组成深度神经网络的方法,在深度学习里被称作深度信念网络DBN,这是目前非常流行的方法。

经典的DBN网络结构是由若干层RBM和一层BP组成的一种深层神经网络,结构如下图所示.:DBN在训练模型的过程中主要分为两步:第1步:分别单独无监督地训练每一层RBM网络,确保特征向量映射到不同特征空间时,都尽可能多地保留特征信息;第2步:在DBN的最后一层设置BP网络,接收RBM的输出特征向量作为它的输入特征向量,有监督地训练实体关系分类器.而且每一层RBM网络只能确保自身层内的权值对该层特征向量映射达到最优,并不是对整个DBN的特征向量映射达到最优,所以反向传播网络还将错误信息自顶向下传播至每一层RBM,微调整个DBN网络.RBM网络训练模型的过程可以看作对一个深层BP网络权值参数的初始化,使DBN克服了BP网络因随机初始化权值参数而容易陷入局部最优和训练时间长的缺点.DBN神经网络模型使用BP算法单独训练每一层的时候,我上述训练模型中第一步在深度学习的术语叫做预训练,第二步叫做微调。最上面有监督学习的那一层,根据具体的应用领域可以换成任何分类器模型,而不必是BP网络。上述训练模型中第一步在深度学习的术语叫做预训练,第二步叫做微多层置信网络结构首先,你需要用原始输入x(k)训练第一个自编码器,它能够学习得到原始输入的一阶特征表示h^{(1)(k)}。多层置信网络结构首先,你需要用原始输入x(k)训练第一个多层置信网络结构接着,你需要把原始数据输入到上述训练好的稀疏自编码器中,对于每一个输入x(k),都可以得到它对应的一阶特征表示h^{(1)(k)}。然后你再用这些一阶特征作为另一个稀疏自编码器的输入,使用它们来学习二阶特征h^{(2)(k)}。多层置信网络结构接着,你需要把原始数据输入到上述训练好的稀疏多层置信网络结构再把一阶特征输入到刚训练好的第二层稀疏自编码器中,得到每个h^{(1)(k)}对应的二阶特征激活值h^{(2)(k)}。接下来,你可以把这些二阶特征作为softmax分类器的输入,训练得到一个能将二阶特征映射到数字标签的模型。多层置信网络结构再把一阶特征输入到刚训练好的第二层稀疏自编码多层置信网络结构最终,你可以将这三层结合起来构建一个包含两个隐藏层和一个最终softmax分类器层的栈式自编码网络,这个网络能够如你所愿地对MNIST数字进行分类。多层置信网络结构最终,你可以将这三层结合起来构建一个包含两个多层置信网络结构DBNs由多个限制玻尔兹曼机(RestrictedBoltzmannMachines)层组成,一个典型的神经网络类型如图所示。多层置信网络结构DBNs由多个限制玻尔兹曼机(Restri多层置信网络结构·最终在构筑好整个网络后,相当于进行了一次完整的无监督学习。·在确定了网络的权值后,再次根据样本,以BP神经网络的算法,进行一次有监督的学习过程。这一过程被称为多层置信网络的微调。多层置信网络结构·最终在构筑好整个网络后,相当于进行了一次完总结与展望总结与展望多层置信网的应用DBNs的灵活性使得它的拓展比较容易。一个拓展就是卷积DBNs(ConvolutionalDeepBeliefNetworks(CDBNs))。DBNs并没有考虑到图像的2维结构信息,因为输入是简单的从一个图像矩阵一维向量化的。而CDBNs就是考虑到了这个问题,它利用邻域像素的空域关系,通过一个称为卷积RBMs的模型区达到生成模型的变换不变性,而且可以容易得变换到高维图像。DBNs并没有明确地处理对观察变量的时间联系的学习上,虽然目前已经有这方面的研究,例如堆叠时间RBMs,以此为推广,有序列学习的dubbedtemporalconvolutionmachines,这种序列学习的应用,给语音信号处理问题带来了一个让人激动的未来研究方向。多层置信网的应用DBNs的灵活性使得它的拓展比较容易。ConvolutionalDBNonfaceimagespixelsedgesobjectparts(combinationofedges)objectmodelsNote:Sparsityimportantfortheseresults.ConvolutionalDBNonfaceimag对于一个特定的框架,多少维的输入它可以表现得较优?对捕捉短时或者长时间的时间依赖,哪种架构才是有效的?如何对于一个给定的深度学习架构,融合多种感知的信息?如何分辨和利用学习获得的中、高层特征语义知识?有什么正确的机理可以去增强一个给定的深度学习架构,以改进其鲁棒性和对变形及数据丢失的不变性?模型方面是否有其他更为有效且有理论依据的深度模型学习算法?是否存在更有效的可并行训练算法?未来需解决的问题:对于一个特定的框架,多少维的输入它可以表现得较优?未来需解决相关程序软件及链接DeepLearningwebsite

–/MatlabcodeforR-ICAunsupervisedalgorithm–/Python-basedlearninglibrary–/C++codeforConvNets

–/software/theano/LushlearninglibrarywhichincludesConvNets–/~quocle/rica_release.ziplearninglibrarythatsupportsneuralnettraining–http://www.torch.chCodeusedtogeneratedemoforthistutorialRanzato–/~fergus/tutorials/deep_learning_cvpr12/相关程序软件及链接DeepLearningwebsite相关文献推荐Arel,I.,Rose,D.C.andKarnowski,T.P.Deepmachinelearning-anewfrontierinartificialintelligenceresearch.ComputationalIntelligenceMagazine,IEEE,vol.5,pp.13-18,2010.深度学习的介绍性文章,可做入门材料。Bengio,Y.LearningdeeparchitectureforAI.FoundationsandTrendsinMachineLearning,vol.2,pp:1-127,2009.(深度学习的经典论文,集大成者。可以当作深度学习的学习材料)Hinton,G.E.Learningmultiplelayersofrepresentation.TrendsinCognitiveSciences,vol.11,pp.428-434,2007.不需要太多数学知识即可掌握DBNs的关键算法。这篇论文语言浅白,篇幅短小,适合初学者理解DBNs。Hinton,G.E.Torecognizeshapes,firstlearntogenerateimages.TechnicalReportUTMLTR2006-003,UniversityofToronto,2006.(多伦多大学的内部讲义。推荐阅读)Hinton,G.E.,Osindero,S.andTeh,Y.W.Afastlearningalgorithmfordeepbeliefnets.NeuralComputation,vol18,pp.1527-1554,2006。(DBNs的开山之作,意义非凡,一定要好好看几遍。在这篇论文中,作者详细阐述了DBNs的方方面面,论证了其和一组层叠的RBMs的等价性,然后引出DBNs的学习算法)Hinton,G.E.andSalakhutdinov,R.R.Reducingthedimensionalityofdatawithneuralnetworks.Science,vol.313,no.5786,pp.504–507,2006.(Science上的大作。这篇论文可是算作一个里程碑,它标志着深度学习总算有了高效的可行的算法。)Hinton,G.E.Apracticalguidetotrainingrestrictedboltzmannmachines.TechnicalReportUTMLTR2010-003,UniversityofToronto,2010.(一份训练RBM的最佳实践)Erhan,D.,Manzagol,P.A.,Bengio,Y.,Bengio,S.andVincent,P.Thedifficultyoftrainingdeeparchitecturesandtheeffectofunsupervisedpretraining.InTheTwelfthInternationalConferenceonArtificialIntelligenceandSt

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论