《深度神经网络》PPT课件.ppt_第1页
《深度神经网络》PPT课件.ppt_第2页
《深度神经网络》PPT课件.ppt_第3页
《深度神经网络》PPT课件.ppt_第4页
《深度神经网络》PPT课件.ppt_第5页
已阅读5页,还剩77页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、深度神经网络 IDeep Neural Networks,中国科学院自动化研究所 吴高巍 2016-12-6,内容,深度神经网络发展历史、背景 动机Why Deep Learning? 深度学习常用模型,Neural network Back propagation,1986,解决了一般性学习问题 与生物系统相联系,Nature,历史,Neural network Back propagation,1986,Nature,历史,Neural network Back propagation,1986,解决了一般性学习问题 与生物系统相联系,Nature,历史,But it is given u

2、p,SVM Boosting Decision tree ,2006,Neural network Back propagation,1986,Nature,历史,2006,Deep belief net Science,Unsupervised ) 概率值: p(v,h), p(v), p(h), p(v|h), p(h|v),RBM,极大似然,RBM,CD 算法思想 (Hinton, 2002),Contrastive Divergence,观测分布,真实分布,RBM,具体参数W, a, b RBM 的能量:E(v,h) = vTWh bTv aTh 概率形式,RBM,具体参数,RBM,对

3、于hj0;1, vi 0;1, 可进一步化简:,RBM,通过采样来计算第二项: CD-K算法 再回顾ML算法目标,RBM,算法流程(CD-1): 输入样本为v1,v2, vn,设观测变量v, 隐变量h 将对各参数的偏导数初始化为 wij=0, aj=0, bi=0; For k =1, N: v(0) vn For j = 1,.,m, do sample: For i=1,.,n, do sample: 计算梯度,最后平均,(样本数),(隐结点数),(维数),RBM,CD-1算法,RBM,图解,RBM,训练技巧(结构已定) 将数据分成Batch, 在每个batch 内并行计算 将CD-算法折

4、衷成CD-1算法 监控学习过程 防止overfitting 监控学习率 增加动力机制(选样) 增加稀疏机制(联接),G. Hinton. A Practical Guide to Training Restricted Boltzmann Machines, Tech Report, No.UTML TR 2010-003, Department of Computer Science, University of Toronto, Canada,Deep Belief Networks(DBNs),概率生成模型 深层结构多层 非监督的预学习提供了网络好的初始化 maximizing the

5、lower-bound of the log-likelihood of the data 监督微调(fine-tuning) Generative: Up-down algorithm Discriminative: backpropagation,DBN结构,Hinton et al., 2006,DBN Greedy training,第一步 Construct an RBM with an input layer v and a hidden layer h Train the RBM,DBN Greedy training,第二步 Stack another hidden layer

6、 on top of the RBM to form a new RBM Fix W1, sample h1 from Q(h1|v) as input. Train W2 as RBM.,DBN Greedy training,第三步 Continue to stack layers on top of the network, train it as previous step, with sample sampled from Q(h2|h1) And so on,Fine-tuning,Training for classification,逐层贪婪训练,RBM specifies P

7、(v,h) from P(v|h) and P(h|v) Implicitly defines P(v) and P(h) Key idea of stacking Keep P(v|h) from 1st RBM Replace P(h) by the distribution generated by 2nd level RBM,逐层贪婪训练,Easy approximate inference P(hk+1|hk) approximated from the associated RBM Approximation because P(hk+1) differs between RBM

8、and DBN Training: Variational bound justifies greedy layerwise training of RBMs,DBN识别手写数字,待识别数字的黑白位图,隐性神经元,识别结果,关闭状态的神经元,开启状态的神经元,Result is right,error rate: DBN 1.2%, Compare with SVM 1.4%,DBN提取音频特征,DBN训练一个5层的深度网络提取音乐的特征,用于音乐风格的分类,参考文献:Philippe Hamel and Douglas Eck, LEARNING FEATURES FROM MUSIC AU

9、DIO WITH DEEP BELIEF NETWORKS.,3个隐藏层,输入的原始数据是经过分帧,加窗之后的信号的频谱 分类器采用的是支持向量机SVM 对比的方法是MFCCs,分类器同样采用SVM,DBN提取音频特征,具有不同流派音频的不同表示的2维映射,和输入Inputs、MFCCs相比,DBN算法中隐藏层的激活的聚类表达更明确,分类的准确度更高。,小结,深度神经网络发展历史、背景 动机Why Deep Learning? 深度学习常用模型,References,G. Hinton. A Practical Guide to Training Restricted Boltzmann Ma

10、chines, Tech Report, No. UTML TR 2010-003, Department of Computer Science, University of Toronto, Canada G. Hinton and R. Salakhutdinov. Reducing the Dimensionality of Data with Neural Networks. Science, 2006 Vincent, Pascal, et al. Stacked Denoising Autoencoders: Learning Useful Representations in

11、a Deep Network with a Local Denoising Criterion.Journal of Machine Learning Research11.12(2010):3371-3408. Yoshua Bengio: Learning Deep architectures for AI, Foundations and Trends in Machine Learning, 2(1), 2009 G. Hinton, S. Osindero and Y. W. Teh. A fast learning algorithm for deep belief nets. Neural Computation, 2006

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论