其他分享
首页 > 其他分享> > 强化学习&基于值2 | 经验回放

强化学习&基于值2 | 经验回放

作者:互联网

我们与环境进行互动并且在每个时间步,获得一个动作,状态,奖励,下个状态的元组,学完之后就丢弃,在下个时间步移到下个元组
在这里插入图片描述
我们将每个经验元组储存在这个缓冲区中,然后从中抽取一小批元组进行学习,因此我们能够从单个元组中多次学习规律。回顾罕见的状态并充分地利用经验;另一个改善是,过往的经验中每个动作A都以某种方式影响下个状态S,意味着一系列经验元组可能关系非常紧密,如果按照顺序学习会面临受到这种联系影响的风险,而借助replay buffer我们可以随机地从缓冲区取样,不一定必须是储存元组的同一顺序,这有助于打破相互之间的联系,并最终防止动作值严重振动或发散
在这里插入图片描述
replay使得强化学习可以用监督学习的方式进行训练,或者我们还可以使罕见或者更重要的经验元组优先级更高
在这里插入图片描述

标签:基于,经验,回放,下个,元组,学习,replay,缓冲区,强化
来源: https://blog.csdn.net/weixin_43236007/article/details/114950301