DQN(深度强化学习).ppt_第1页
DQN(深度强化学习).ppt_第2页
DQN(深度强化学习).ppt_第3页
DQN(深度强化学习).ppt_第4页
DQN(深度强化学习).ppt_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Human-levelcontrolthroughdeepreinforcementlearning,通过深度强化学习达到人类的控制水平,强化学习,强化学习就是agent(又称智能系统或智能体)通过与环境的交互学习一个从环境状态到行为映射,学习的目标是使其累积折扣回报值最大。传统的强化学习依赖于组合人工特征和线性价值函数(valuefunction)或策略表达来实现。,马尔科夫决策链,马尔科夫决策过程一般包含如下五个元素:.状态集s。比如,在物体位置坐标。.动作集A。比如,执行上下左右等一系列可行的动作集。.状态转移概率Psa。Psa表示在状态状态下执行动作后,转移到下一个状态的概率分布,有时候也表示成如下形式T(s,a,s),s便是在状态s下执行动作a后的状态。.阻尼系数,或者称为折扣因子(Discountfactor).回报函数R,R:SxAR,表示当前状态下执行某个动作能得到的回报值。,马尔可夫决策过程,agent的决策过程如下:计算总的回报值V:如果回报函数R只和状态S有关而与动作无关:我们选择一个最佳的策略使得回报最大:,马尔科夫决策过程,定义值函数V为在当前状态s下执行策略能得到的期望的累积折扣回报:我们将上式表示为当前回报和后续回报的形式:假设有一个最优策略,使得我们的得到一个最优的值函数:这就是一个Bellman等式的形式,Q-learing算法,1、SuttonsTD(0)算法:这个算法一样会考虑当前回报和下一状态的估计值,它的更新公式如下:其中公式右侧的V(s)是V(s)的旧值(值迭代的过程),是学习效率。2、Q-learing算法:它和SuttonsTD(0)算法类似,只是将动作集A也考虑进来。定义动作价值函数Q(s,a),Q-learning的更新规则:,深度强化学习(DRL),将深度学习和强化学习结合在一起,直接从高维原始数据学习控制策略。具体是将卷积神经网络和QLearning结合在一起。卷积神经网络的输入是原始图像数据(作为状态)输出则为每个动作对应的价值ValueFunction来估计未来的反馈Reward。但是结合二者是有困难的,具体表现在:(1)深度学习的成功依赖于大量的有标签的样本,从而进行有监督学习。而增强学习只有一个reward返回值,并且这个值还常常带有噪声,延迟,并且是稀少的(sparse),理解是不可能每个state给个reward。特别是延迟Delay,常常是几千毫秒之后再返回。,深度强化学习(DRL),(2)深度学习的样本都是独立的,而RL中的state状态却是相关的,前后的状态是有影响的,这显而易见。(3)深度学习的目标分布是固定的。一个图片是车就是车,不会变。但增强学习,分布却是一直变化的,比如超级玛丽,前面的场景和后面的场景不一样,可能前面的训练好了,后面又不行了,或者后面的训练好了前面又用不了了。,DQN算法,DQN=CNN+Q-learning(1)通过Q-Learning使用reward来构造标签(2)通过experiencereplay的方法来解决相关性及非静态分布问题,DQN算法,因为输入是RGB,像素也高,因此,对图像进行初步的图像处理,变成灰度矩形84*84的图像作为输入,有利于卷积。接下来就是模型的构建问题,毕竟Q(s,a)包含s和a。一种方法就是输入s和a,输出q值,这样并不方便,每个a都需要forward一遍网络。Deepmind的做法是神经网络只输入s,输出则是每个a对应的q。这种做法的优点就是只要输入s,forward前向传播一遍就可以获取所有a的q值,毕竟a的数量有限。,DQN算法,D

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论