其他分享
首页 > 其他分享> > 强化学习:TRPO和PPO背后的数学

强化学习:TRPO和PPO背后的数学

作者:互联网

TRPO 算法 (Trust Region Policy Optimization)和PPO 算法 (Proximal Policy Optimization)都属于MM(Minorize-Maximizatio)算法。在本文中,我们将介绍基础的MM算法,并且通过几个步骤推导出TRPO和PPO的目标函数。在我们的强化学习系列课程之中( Reinforcement Learning series ),我们将会分别学习不同的主题的内容。但是在本文之中,我们将会展示更多的数学细节给这些好奇的、想了解这些目标函数背后原因的读者们。

Surrogate function(替代函数)

RL( Reinforcement Learning即强化学习) 的目标就是最大化预期折扣奖励(the expected discounted rewards)。下图之中,红色的线表示期望折扣回,其中 η 被定义为:在这里插入图片描述在这里插入图片描述
MM是一种迭代方法,对于每次迭代,我们发现替代函数M(蓝线)有如下性质:

目标函数

如下所示,有原始的策略梯度PG、置信域策略梯度TRPO和近端策略优化PPO版本的目标函数。接下来我们将详细进行证明。
在这里插入图片描述
简而言之,我们想最大化优势函数:动作值函数(奖励的最大期望)减去对应状态拥有的基准值。约束条件为新旧策略的差异不能过大。本文余下部分将数学证明该约束问题。

值函数、动作值函数和优势函数的表达式

首先,我们先定义Q值函数、状态值函数和优势函数。直接书写如下:
在这里插入图片描述

折扣奖励函数

折扣奖励η的期望计算如下:
在这里插入图片描述
或者,我们可以使用其他策略计算策略的奖励。以便比较两种政策。
在这里插入图片描述证明:在这里插入图片描述

标签:策略,迭代,函数,PPO,KL,强化,我们,TRPO
来源: https://blog.csdn.net/tian246319/article/details/122521296