版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、强化学习导论 习题册一、 强化学习相关问题1. 请列举三个能够用强化学习框架描述的例子,并确定每个例子的状态、动作以及相应的回报值。请尽量列举三个不同的例子,并针对其中一个例子,归纳在建模过程中的一些限制因素。答:迷宫,俄罗斯方块等。2. 强化学习框架是否能够用来描述所有的具有目标导向的任务?如果不可以,你是否可以举一个反例?答:可以。3. 驾驶问题。你可以根据油门、方向盘、刹车,也就是你身体能接触到的机械来定义动作。或者你可以进一步定义它们,当车子在路上行驶时,将你的动作考虑为轮胎的扭矩。你也可以退一步定义它们,首先用你的头脑控制你的身体,将动作定义为通过肌肉抖动来控制你的四肢。或者你可以定
2、义一个高层次的动作,比如动作就是目的地的选择。上述哪一个定义能够正确描述环境与Agent之间的界限?哪一个动作的定义比较恰当,并阐述其原因?答:第一个动作的定义比较恰当,Agent与环境的界限是指有Agent所能绝对控制的的范围,并不是指有关Agent所有的信息,题中将司机抽象成一个Agent,那么,由司机所能直接操作的只有油门,刹车和方向盘。4. 假设将平衡杆问题抽象成一个情节式任务,同时也添加折扣因子来计算回报值(对于每个状态的立即奖赏,设定失败状态的奖赏为0,其他状态的奖赏为-1)。在该情况下,每个状态的回报函数如何设定?该回报函数与公式(3.2)有何不同?答:回报函数: 与公式(3.2
3、)的区别就是,在任务描述中是否存在吸收状态,在公式中的体现就是,对立即奖赏的累加是否无穷。5. 机器人迷宫问题。对其中的奖赏做如下设定,机器人走出迷宫,奖赏为1,而在其它情况下奖赏为0。这个任务看上去可以抽象成一个情节式任务(以走出迷宫作为一个情节的结束),目标是将期望回报值最大化,如公式(3.1)所示。但是在agent学习一段时间后,你会发现对于Agent来说,走出迷宫的任务毫无进展。那么,这里问题出在什么地方?如何做出改进提高性能?答:问题出在回报值的设定上,题中设定,机器人走出迷宫的奖赏为+1,其他情况为0,那么,对于每个状态来说,根据公式(3.1),每个状态的回报值都为+1,因此对于机
4、器人的走向没有任何的导向作用。对于该问题的改进可以使用上个问题的回报函数,即添加折扣因子。或者,对于回报可以按一下方式进行设定,走出迷宫奖赏为0,其他情况奖赏为-1。6. 破损视觉系统问题。假设你是一个视觉系统。当你第一次开机的时候,一整幅图像涌入你的摄像头。你能够看到很多东西,但不是所有东西,比如你无法看到被某一物体遮挡住的东西,或者是你背后的东西。在你看到第一个场景之后,你是否可以认为,你所接触的环境具有马尔科夫性,其中的状态是马尔科夫状态?再假设你是一个破损的视觉系统,你的摄像头坏了,这种情况,你接收不到任何影像,那么在这种情况下,是否可以认为你所接触的环境具有马尔科夫性,其中的状态是马
5、尔科夫状态?答:如果一个状态包含所有环境相关信息,我们就认为这个状态具有马尔科夫性。在第一种情况下,状态不具有马尔科夫性,问题中也强调,视觉系统无法看见遮挡住的和背后的东西,因此,该状态不具有马尔科夫性。在第二种情况下,可以认为具有马尔科夫性,你接收不到不到任何影像,你也可以认为,你说处的环境,就是你所感知的,认为,你所知道的环境信息就是包含了所有相关信息,因此,可以认为具有马尔科夫性。7. 对于一个有限的马尔科夫决策过程,奖赏值数量有限,结合公式3.5,给出状态转移函数和回报函数。答:8. 请给出动作值函数的Bellman等式。等式必须包含和。参考回溯图3.4及公式(3.10)。答:9. 根
6、据Bellman等式(3.10)可以计算每一个状态的,如图3.5b所示。比如对于图中0.7这个值来说,可以根据其四周的+2.3,+0.4,-0.4和+0.7这四个值计算得出。试计算图中其他值,根据公式3.10,验证每个值的正确性。答:略。10. 在例子格子世界中,到达目标状态设定奖赏为正值,到达边界状态设定奖赏为负值,其他状态奖赏为0。这样的设定是否必要,或者仅仅是为了区分不同状态的回报值?对于每个状态的立即奖赏加上常量C,每个状态的回报值加上常量K,在不影响每个状态回报值与立即奖赏关系的前提下,试根据公式(3.2),将K用C和参数来表示。答:设状态的回报值为x,立即奖赏为y 即:11. 考虑
7、在情节式任务中,对每个状态的立即奖赏加上一个常量C,比如迷宫问题。这样对最终结果是否有影响?这种情况对于连续式任务是否有影响,比如针对上一个问题中的格子世界?给出解释。答:,对于最终的结果没有影响,通过学习,最终是要能够得出一组最优策略,而对于每个状态的具体值是多少不关注,关注的是值之间的一个差异性。12. 每个状态的状态值函数的值是由当前状态下的动作值函数的值以及动作的选择概率说确定的。我们可以用一幅回溯图来表示它们之间的关系:根据上图,给出和之间的等量关系。答:13. 动作值函数的值可以被分成两部分,期望立即奖赏值,该值不依赖与策略,和后续回报值的累加和,该值依赖于后续状态和策略。我们依然
8、用一个回溯图来表示,根节点是一个动作(状态-动作对),分支节点是可能的后续状态:根据上图,给出和之间的等量关系。答:14. 根据高尔夫球问题,描述最优状态值函数。答:对与每次球的落点,根据动作driver和putter所能到达的不同落点和每个落点的状态值,确定下一个所要到达的状态,并计算每个状态的状态值函数的值。15. 根据高尔夫球问题,针对,描述最优动作值函数。答:是指在状态s下,采用动作putter,根据所可能到达的状态,结合每个状态所能采取的动作,分别是putter和driver,计算。16. 针对环保机器人,给出动作值函数的Bellman等式。答:略。17. 图3.8给出格子世界中的最
9、优状态的最优值函数的值24.4。利用你所了解的最优策略的知识和公式(3.2),以数学的形式计算该值,并给出如何利用该值计算周围三个状态值。答:设最优状态的值为x计算得x=24.4周围三个状态的值都是x=0+0.9*24.4=22.0二、 动态规划1. 假如是等概率随机策略,试计算和.答:2. 假设在表格中状态13下方添加一新的状态15,动作分别是:left,up,right,down,分别到达状态12,13,14和15。假设其他初始状态的状态转向没有改变。采用等概率随机策略时,的值是多少?现假设状态13的状态转向发生变化,即采用down时从状态13到达状态15,采用等概率随机策略,的值又是多少
10、?答:a. 解得:b. (1) (2) 联立公式(1)(2)解得: 注:该题还可以这么考虑,对于状态15来说,其实完全是等同于没有加状态15之前的状态13(从它的状态转向和相对于吸收状态的位置,并且当状态15的值为20,正好满足最终的稳定状态时的值),故,其值应该是20。3. 根据公式(4.3)、(4.4)和(4.5),试给出对应的动作值函数。答: 4. (编程)根据例4.2,并改变以下条件,写一个策略迭代的程序解决汽车租赁问题。在租赁一店,有一雇员每晚需要乘公交车回家,而且她的家离租赁二店很近。因此,她很乐意免费将一辆车从一店开往二店。对于其他要移动的车辆每次仍然需要花费2美圆。另外,jac
11、k每地的停车场空间有限。假如每地每晚停放10辆以上的汽车(在汽车移动之后),那么就需要使用第二个停车场,并且需要付额外的4美圆(不管有多少车停在那里)。这类非线性随机问题经常发生在现实生活中,除了动态规划方法,其他的最优策略一般都很难解决这类问题。为了检查所编写的程序,可以先将原始问题所给出的答案复制下来。假如你的电脑比较慢,你可以将汽车的数量减半。答:提示:环境的搭建a. 状态的表示在二维平面中,利用坐标表示状态b. 动作的表示需要移动的车的数量,区分正向和反向(假设正向为从一店移动到二店)c. 立即奖赏由每天租车的数量的盈利、移动费用及停车场费用构成d. 状态的迁移由两个泊松分布及动作决定
12、e. 动作的选择开始采用随机策略(方向定为,从车多的店往车少的店移动)f. 初始状态的回报值都设为05. 考虑如何利用策略迭代计算动作值函数?参考图4.3计算,试给出一个完整的算法计算。答:1、初始化对于任意, 2、策略评估 Repeat For each Until (一个极小的数)3、策略改进 For each If then If then stop ; else go to 26. 假如仅仅考虑策略,即在每一状态s所选择一动作的概率至少是。以步骤3-2-1的顺序,详细描述在图4.3中的的策略迭代算法每步的变化。答:考虑动作选择的概率,并添加至更新公式。7. 考虑为什么描述赌徒问题最优策
13、略的曲线会如图4.6所示?比如,当赌徒的资金数是50美元的时候,他一次性压上所有的资金,但是当他的资金数是51美元的时候他却不这么做。试说明为什么说这是一个比较好的策略?答:(1)根据问题的描述,赌徒问题的最终目标是能够赢取100美元,那么对于策略来说,要求该策略使得赌徒在每一个状态下,能够获得尽量大的赢取概率,这里的赢取概率其实就是回报值。参考图4.6的上图,我们发现,对于下图的策略,上图的赢取概率一直在增加,我们可以认为这是一个比较好的策略。(2)其实判断一个策略的好坏,-在4.2节中,我们知道,可以通过计算来判断。8. (编程)编程实现,当p=0.25和p=0.55,得到赌徒问题的最优策
14、略。程序执行后,你将很容易解释两个假定的最终状态,最后资金数分别是0和100,反馈值分别设定为0和1。将你的结果表示的如同图4.6一样。观察你的策略是否稳定,即?答:提示:环境的搭建a. 状态的表示赌徒手中的资金数目b. 动作的表示c. 立即奖赏当资金数达到100,奖赏为1,其他为0d. 状态的迁移赌徒手中资金的改变e. 动作的选择开始采用随机策略(从可选动作中随机选择)f. 初始状态的回报值都设为09. 参考公式(4.10),试给出动作值函数的迭代公式?答:三、 蒙特卡罗1. 考虑图5.2中右边的两幅图表,为什么值函数在尾部最后两行突然跳高?为什么在最左边一行值又下降了?为什么上图中最突出的
15、值要比下图还要大?答:sum = 20 或 21时,players policy is sticks,此时Return = 1的几率较大,获胜的概率较大;dealer爆点的概率小,获胜的概率大。因为Ace即可以当1用,又可当11用。有Ace时爆点的概率小,获胜的概率大。因为Ace即可以当1用,又可当11用。2. 蒙特卡罗估计Q值的回溯图是什么样的?答:如下图。3. 已知策略´下产生的返回值,则与(5.3)类似的蒙特卡罗对动作值的估计计算式是什么?答:Let 和denote the probabilities of that complete sequence happening gi
16、ven policies 和and starting from s, taking action a。其中,在时刻t( is the time of termination of the ith episode involving state s. )4. 跑道问题(编程)答:略。5. 修改first-visit MC 策略估计(图5.1)算法,使用2.5节中介绍的静态平均值的增量实现技术。答:如下图。初始化:要被估计的策略V0无限次重复: (a) 使用策略产生一个episode(b) 对于出现在该episode中的每个状态s R伴随s第一次发生的返回值 用first-visit MC算法来估
17、计V(增量实现)6. 按照从(2.1)式中获得不加权规则(2.4)式的形式,从(5.4)式中得到对平均值加权的更新规则(5.5)。答:7. 修改off-policy 蒙特卡罗控制算法(图5.7),使之能使用上面介绍的算法来递增计算加权的平均值。答:如下图。初始化,对于任意s S , a A(s):Q(s,a)任意值任意的一个确定的策略无限次重复: (a) 选择一个策略´并用它产生片段 s0,a0,r1,s1,a1,r2,sT-1,aT-1,rT,sT(b) 使 a(s) 成立的最晚的时间(c) 对于在时间或后出现在片段中的每对s, a:t时间之后,第一次出现的s,a的时间,对于第n个
18、episode if 1nElse(d) 对于每个s S:(s)arg maxa Q(s,a)四、 TD学习1. 这个练习是帮助你去形成一种直觉,这种直觉是关于为什么时间差分方法比蒙特卡罗方法更有效。考虑驾车回家的例子,它是怎样被时间差分方法和蒙特卡罗方法表述的。你能够想象这样一个场景,在这个场景中,时间差分更新平均优于蒙特卡罗方法吗?给出一个示例场景对过去经验的描述和一个当前状态在其中你期望时间差分更新更好。提示:假设你有许多驾车回家的经验。后来你搬到了一幢新楼,停车地点也发生了变化(但是你仍然在相同的地方进入高速公路)。现在你正在学习这个新楼的预计值。在这种情况下至少是在最初时,你能看到为
19、什么时间差分更新可能更好一点吗?可能这个相同类型的事件发生在初始任务。答:略2. 从图6.6可以看出第一个片段仅仅导致的改变。通过第一个情节之后,能说明什么问题?为什么只有第一个状态的估计改变呢?它准确地改变了多少呢?答:1)在第一个情节中,Agent向左移动一步,并到达左边的吸收状态,情节结束2)Agent向左移动一步,并到达左边的吸收状态,情节结束,并没有达到其他状态,因此其他状态的V值没有发生变化3)计算公式如下: 3. 你认为通过选择不同的步长参数,但仍然保持是一个常量的话,算法能明显地比图6.7中所示的效果更好吗?为什么或者为什么不呢?答:步长参数体现当前样本对整个样本空间的影响,值
20、越大,表明当前样本对整个样本空间的影响越大,反之亦然。且当值越大时,算法的收敛速度越快,同时收敛效果变差,当值越小时,算法的收敛速度越慢,同时收敛效果变号,这个通过图6.7可以看出。4. 在图6.7中,TD方法的RMS误差似乎先减少然后又增加,特别是在高的中。什么导致这个结果的发生呢?你认为这是一直发生的呢,还是这可能是一个函数关于近似值函数怎样初始化的问题呢?答:一直会发生,但并不是一直增加,可能在某一个时刻,曲线又出现下降的趋势。当值越大,表明当前样本对整个样本空间的影响越大,反之亦然。因此,当值较大,并且算法趋近于收敛时,如果当前的样本较差,就容易使得收敛曲线发生震荡。5. 我们上面所述的随机行走任务的对A到E的所有状态的真实值是和。至少用两种可以计算的方式来描述。你猜哪种实际上我们已经用过了呢?为什么?答:1)先确定的值为0.52)不确定的值,直接计算猜测:第一种方法被用过,在例子的描述中,有提到确定的值为0.56. 使用Kings Moves的有风的格子世界(编程) 假设有八个可能的动作解决有风的格子世界任务,包括斜向动作而不是通常的四个。
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026云南昆明中节能风电西中区域公司招聘工程项目技术员3人考试参考试题及答案解析
- 2026广东广州南沙人力资源发展有限公司联合广州市南沙潭山中学招聘编外教师1人考试备考试题及答案解析
- 2026年青岛大学心血管病研究所(青岛大学附属心血管病医院)公开招聘人员(7人)考试备考题库及答案解析
- 2026四川成都市双流区九江幼儿园招聘非在编教师2人笔试模拟试题及答案解析
- 2026贵州省重点产业人才“蓄水池”第一批岗位专项简化程序公开招聘26人笔试备考试题及答案解析
- 2026山东济南市济钢集团有限公司招聘7人考试备考试题及答案解析
- 2026浙江宁波前湾控股集团有限公司第1批次人员招聘13人考试参考试题及答案解析
- 2026广东河源市人民医院第二批合同制人员招聘12人考试备考题库及答案解析
- 2026上半年甘肃事业单位联考甘肃省市场监督管理局招聘7人考试参考题库及答案解析
- 2026新疆天康生物股份有限公司各业务及实习招聘考试参考题库及答案解析
- 2026年及未来5年中国通信机柜行业发展运行现状及投资战略规划报告
- 《2026年》档案管理岗位高频面试题包含详细解答
- 云南省昆明市2026届高三三诊一模摸底诊断测试数学试卷(含答案)
- 生鲜客服培训
- 门诊护理中的PDCA循环:提升患者满意度
- 绿电交易课件教学
- 古代文学八股文课件
- 正压式消防空气呼吸器培训
- 2025年产品成本核算实操培训
- 延边大学本科生毕业论文(设计)撰写规范
- 粉笔线上协议班 合同
评论
0/150
提交评论