增强学习Reinforcement Learning经典算法梳理

发布时间:2023-09-08 01:13:44   来源:文档文库   
字号:
前言就目前来看,深度增强学习(DeepReinforcementLearning中的很多方法都是基于以前的增强学习算法,将其中valuefunction价值函数或者Policyfunction策略函数用深度神经网络替代而实现。因此,本文尝试总结增强学习中的经典算法。本文主要参考:121预备知识对增强学习有所理解,知道MDPBellman方程详细可见:很多算法都是基于求解Bellman方程而形成:ValueIterationPolicyIterationQ-LearningSARSA2PolicyIteration策略迭代PolicyIteration的目的是通过迭代计算valuefunction价值函数的方式来使policy收敛到最优。PolicyIteration本质上就是直接使用Bellman方程而得到的:那么PolicyIteration一般分成两步:PolicyEvaluation策略评估。目的是更新ValueFunctionPolicyImprovement策略改进。使用greedypolicy产生新的样本用于第一步的策略评估。本质上就是使用当前策略产生新的样本,然后使用新的样本更新当前的策略,然后不断反复。理论可以证明最终策略将收敛到最优。具体算法:那么这里要注意的是policyevaluation部分。这里的迭代很重要的一点是需要知道state状态转移概率p也就是说依赖于model模型。而且按照算法要反复迭代直到收敛为止。所以一般需要做限制。比如到某一个比率或者次数就停止迭代。3ValueIteration价值迭代ValueIteration则是使用Bellman最优方程得到然后改变成迭代形式valueiteration的算法如下:那么问题来了:PolicyIterationValueIteration有什么本质区别?为什么一个叫policyiteration,一个叫valueiteration呢?原因其实很好理解,policyiteration使用bellman方程来更新value,最后收敛的value是当前policy下的value值(所以叫做对policy进行评估),目的是为了后面的policyimprovement得到新的policyvalueiteration是使用bellman最优方程来更新value最后收敛得到的valuev?就是当前state状态下的最优value值。因此,只要最后收敛,那么最优的policy也就得到的。因此这个方法是基于更新value的,所以叫valueiteration从上面的分析看,valueiteration较之policyiteration更直接。不过问题也都是一样,需要知道状态转移函数p能计算。本质上依赖于模型,而且理想条件下需要遍历所有的状态,这在稍微复杂一点的问题上就基本不可能了。4异步更新问题那么上面的算法的核心是更新每个状态的value值。那么可以通过运行多个实例同时采集样本来实现异步更新。而基于异步更新的思想,DeepMind出了一篇不错的paperAsynchronousMethodsforDeepReinforcementLearning。该文对于Atari游戏的效果得到大幅提升。5小结
ReinforcementLearning有很多经典算法,很多算法都基于以上衍生。鉴于篇幅问题,下一个blog再分析基于蒙特卡洛的算法。1前言在上一篇文章中,我们介绍了基于Bellman方程而得到的PolicyIterationValueIteration两种基本的算法,但是这两种算法实际上很难直接应用,原因在于依然是偏于理想化的两个算法,需要知道状态转移概率,也需要遍历所有的状态。对于遍历状态这个事,我们当然可以不用做到完全遍历,而只需要尽可能的通过探索来遍及各种状态即可。而对于状态转移概率,也就是依赖于模型Model,这是比较困难的事情。什么是状态转移?就比如一颗子弹,如果我知道它的运动速度,运动的当前位置,空气阻力等等,我就可以用牛顿运动定律来描述它的运动,进而知道子弹下一个时刻会大概在哪个位置出现。那么这个基于牛顿运动定律来描述其运动就是一个模型Model,我们也就可以知道其状态(空间位置,速度)的变化概率。那么基本上所以的增强学习问题都需要有一定的模型的先验知识,至少根据先验知识我们可以来确定需要多少输入可以导致多少输出。比如说玩Atari这个游戏,如果输入只有屏幕的一半,那么我们知道不管算法多么好,也无法训练出来。因为输入被限制了,而且即使是人类也是做不到的。但是以此同时,人类是无需精确的知道具体的模型应该是怎样的,人类可以完全根据观察来推算出相应的结果。所以,对于增强学习的问题,或者说对于任意的决策与控制问题。输入输出是由基本的模型或者说先验知识决定的,而具体的模型则可以不用考虑。所以,为了更好的求解增强学习问题,我们更关注ModelFree的做法。简单的讲就是如果完全不知道状态转移概率(就像人类一样),我们该如何求得最优的策略呢?本文介绍蒙特卡洛方法。2蒙特卡洛方法蒙特卡洛方法只面向具有阶段episode的问题。比如玩一局游戏,下一盘棋,是有步骤,会结束的。而有些问题则不一定有结束,比如开赛车,可以无限的开下去,或者说需要特别特别久才能结束。能不能结束是一个关键。因为只要能结束,那么每一步的reward都是可以确定的,也就是可以因此来计算value。比如说下棋,最后赢了就是赢了,输了就是输了。而对于结束不了的问题,我们只能对于value进行估计。那么蒙特卡洛方法只关心这种能够较快结束的问题。蒙特卡洛的思想很简单,就是反复测试求平均。如果大家知道在地上投球计算圆周率的事情就比较好理解了。不清楚的童鞋可以网上找找看。那么如何用在增强学习上呢?既然每一次的episode都可以到结束,那么意味着根据:每一步的reward都知道,也就意味着每一步的returnGt都可以计算出来。这就好了。我们反复做测试,这样很多状态会被遍历到,而且不止一次,那么每次就可以把在状态下的return求和取平均。当episode无限大时,得到的数据也就接近于真实的数据。蒙特卡洛方法就是使用统计学的方法来取代Bellman方法的计算方法。上面的算法叫first-visitMC。也就是每一次的episodestate只使用第一次到达的t来计算return另一种方法就是every-visit,就是每一次的episodestate只要访问到就计算return求平均。所以可以看到蒙特卡洛方法是极其简单的。但是缺点也是很明显的,需要尽可能多的反复测试,而且需要到每一次测试结束后才来计算,需要耗费大量时间。但是,大家知道吗?AlphaGo就是使用蒙特卡洛的思想。不是蒙特卡洛树搜索,而是说在增强学习中使用蒙特卡洛方法的思想。AlphaGo每次也是到下棋结束,而且只使用最后的输赢作为return。所以这也是非常神奇的事,只使用最后的输赢结果,竟然能够优化每一步的走法。3使用蒙特卡洛方法来控制上面说的蒙特卡洛方法只是能够对当前的policy进行评估。那么大家记得上一个blog说的policyiteration方法吗?我们可以在policyiteration中使用蒙特卡洛方法进行评估,然后使用greedypolicy更新。那么依然是有两种做法。一种就是在一个policy下测试多次,评估完全,然后更新policy,然后再做很多测试。另一种就是不完全评估,每次测试一次完就评估,评估完就更新:第一种做法:第二种做法:两种做法都能够收敛,那么显然第二种做法的速度更快。那么再改进一点,就是改变greedypolicy?的值,使得不断变小趋于0,这个时候最后得到的policy就是完全的最优policy了。这个算法就叫做GLIEMonte-CarloControl其他变种:MonteCarlowithExploringStarts,使用Q(s,a,然后使用上面说的第二种做法,一次episod就更新一次policy,而且policy直接使用Q值。policy的更新使用了??greedy,目的就是能够更好的探索整个状态空间。4OffPolicyLearning

本文来源:https://www.2haoxitong.net/k/doc/78d85857b8d528ea81c758f5f61fb7360a4c2b36.html

《增强学习Reinforcement Learning经典算法梳理.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

文档为doc格式