马尔可夫决策过程 (Markov decision process,MDP)是强化学习的重要概念。本文在动手学强化学习 著作的基础上,对于马尔可夫决策过程进行了总结。
随机过程 随机过程 (stochastic process) 研究对象是随时间演变的随机现象,其中:
状态 (state) :随机现象在某时刻 t t t 的取值是一个向量随机变量 S t ∈ S S_{t} \in \mathcal{S} S t ∈ S ,其中 S = { s 1 , … , s n } \mathcal{S} = \{ s_{1},\dots, s_{n} \} S = { s 1 , … , s n } 表示所有可能的状态集合,且 ∣ S ∣ = n |\mathcal{S}|=n ∣ S ∣ = n 表示可能的状态数量.
举例:S t = S_t= S t = (机器人位置,机器人速度,机器人加速度) 状态转移 :在某个时刻 t t t 的状态 S t S_{t} S t 取决于 t t t 时刻之前的状态 { S 1 , … , S t − 1 } \{S_{1},\dots, S_{t-1}\} { S 1 , … , S t − 1 } .
状态转移概率 :已知历史信息 ( S 1 , … , S t ) (S_{1},\dots,S_{t}) ( S 1 , … , S t ) 时,下一个时刻状态为 S t + 1 S_{t+1} S t + 1 的概率是:
P ( S t + 1 ∣ S 1 , … , S t ) \mathbb{P}(S_{t+1}|S_{1},\dots,S_{t}) P ( S t + 1 ∣ S 1 , … , S t ) 马尔可夫过程 NOTE 马尔可夫过程可以看作一个带概率的状态机:其描述了一类随机系统,其中状态随时间演化,并满足:下一时刻的状态只依赖当前状态,而与过去无关。
马尔可夫性质 (Markov property) . 在某个时刻 t + 1 t+1 t + 1 的状态只取决于上一时刻,即在时刻 t t t 的状态。用公式表述就是:
P ( S t + 1 = s t + 1 ∣ S t = s t ) = P ( S t + 1 = s t + 1 ∣ S 1 = s 1 , … , S t = s t ) \mathbb{P}(S_{t+1}= s_{t+1}|S_{t}=s_{t}) = \mathbb{P}(S_{t+1} = s_{t+1}| S_{1} = s_{1},\dots,S_{t}=s_{t}) P ( S t + 1 = s t + 1 ∣ S t = s t ) = P ( S t + 1 = s t + 1 ∣ S 1 = s 1 , … , S t = s t ) 虽然马尔可夫性质使得下一时刻的状态只依赖当前状态,看似忽略了历史信息,但实际上可以通过将历史信息编码到当前状态中,从而不丢失对未来预测所需的信息。 状态转移矩阵 (state transition matrix) . 基于马尔可夫性质的状态转移概率可以用矩阵表述:
P = [ P ( S t + 1 ∣ S t ) ] ∣ S ∣ × ∣ S ∣ = [ P ( s 1 ∣ s 1 ) … P ( s n ∣ s 1 ) ⋮ ⋱ ⋮ P ( s 1 ∣ s n ) … P ( s n ∣ s n ) ] \mathcal{P} = \begin{bmatrix} \mathbb{P}(S_{t+1}|S_{t}) \end{bmatrix}_{|\mathcal{S}| \times |\mathcal{S}|} = \begin{bmatrix} \mathbb{P}(s_{1}|s_{1}) & \dots & \mathbb{P}(s_{n}|s_{1}) \\ \vdots & \ddots & \vdots \\ \mathbb{P}(s_{1}|s_{n}) & \dots & \mathbb{P}(s_{n}|s_{n}) \end{bmatrix} P = [ P ( S t + 1 ∣ S t ) ] ∣ S ∣ × ∣ S ∣ = P ( s 1 ∣ s 1 ) ⋮ P ( s 1 ∣ s n ) … ⋱ … P ( s n ∣ s 1 ) ⋮ P ( s n ∣ s n ) 每一行表示一种初始状态 每一列表示一种转移后的状态 对于第 i i i 行第 j j j 列矩阵表示 P ( S t + 1 = s j ∣ S t = s i ) \mathbb{P}(S_{t+1}=s_{j}| S_{t} = s_{i}) P ( S t + 1 = s j ∣ S t = s i ) ,即 s i → s j s_{i}\to s_{j} s i → s j 的状态转移
马尔可夫过程 (Markov process) . 指具有马尔可夫性质的随机过程,可以表示为
Markov process = ⟨ S , P ⟩ \text{Markov process} = \langle \mathcal{S}, \mathcal{P}\rangle Markov process = ⟨ S , P ⟩ 状态序列 (episode) . 一串按时间顺序排列的状态
例如 s 1 → s 1 → s 2 → s 3 → s 6 s_{1}\to s_{1} \to s_{2}\to s_{3}\to s_{6} s 1 → s 1 → s 2 → s 3 → s 6 采样 (sampling) . 从某一个状态开始,根据它的状态转移矩阵,一步一步随机生成一个状态序列的过程。
马尔可夫奖励过程 NOTE 马尔可夫奖励过程是在马尔可夫过程的基础上,引入奖励函数,用于评估从某个状态出发的长期回报,从而衡量状态的优劣。
重要概念:
回报描述了从当前时刻开始直到终止状态时,所有 奖励的衰减之和 价值函数描述了从状态出发的期望回报 。 问题建模 奖励 (reward) . 对于一个状态 s s s ,其奖励 r ( s ) ∈ R r(s) \in \mathbb{R} r ( s ) ∈ R 表示处于(或者理解为从任意状态转移到)该状态时所获得的期望奖励。
这是单步的 其向量化表示: R = [ R ( s 1 ) ⋮ R ( s n ) ] \mathcal{R} = \begin{bmatrix} R(s_{1}) \\ \vdots \\ R(s_{n})\end{bmatrix} R = R ( s 1 ) ⋮ R ( s n ) 回报 (return) . 对于一个状态序列,从第 t t t 时刻开始直到终止状态时,所有奖励的衰减之和
G t = R t + γ R t + 1 + γ 2 R t + 2 + ⋯ = ∑ k = 0 ∞ γ k R t + k G_{t}= R_{t}+ \gamma R_{t+1} + \gamma^2 R_{t+2}+\dots = \sum_{k=0}^\infty \gamma^k R_{t+k} G t = R t + γ R t + 1 + γ 2 R t + 2 + ⋯ = k = 0 ∑ ∞ γ k R t + k 这是多步的 γ ∈ [ 0 , 1 ) \gamma\in [0,1) γ ∈ [ 0 , 1 ) 是折扣因子,表示我们倾向于尽快获得奖励、对远期利益打折扣的程度R t R_{t} R t 表示在时刻 t t t 获得的奖励
马尔可夫奖励过程 (Markov reward process) . 在马尔可夫过程的基础上,加上每个状态的奖励函数和回报的折扣因子,可以表示为
Markov reward process = ⟨ S , P , R , γ ⟩ \text{Markov reward process} =\langle \mathcal{S}, \mathcal{P}, \mathcal{R}, \gamma \rangle Markov reward process = ⟨ S , P , R , γ ⟩ 通过定义奖励和状态转移,使我们可以用“长期期望回报”来量化一个状态的好坏 状态价值函数 价值 (value) 和 价值函数 (value function) . 对于一个状态 s s s ,其期望回报称之为该状态的价值。所有状态的价值组成了价值函数
V ( s ) = E [ G t ∣ S t = s ] V(s) = \mathbb{E} [G_{t}|S_{t}=s] V ( s ) = E [ G t ∣ S t = s ] 期望回报是指在给定状态转移概率(以及策略)下,对所有可能的未来状态序列的回报取期望。 价值函数是指对于所有状态,建立一个从状态到其价值的映射 贝尔曼方程 (Bellman equation) . 求解每个状态的价值. 推导:
V ( s ) = E [ G t ∣ S t = s ] = E [ R t + γ ( R t + 1 + γ R t + 2 + γ 2 R t + 3 + … ) ∣ S t = s ] = E [ R t + γ G t + 1 ∣ S t = s ] = E [ R t ∣ S t = s ] + γ ∑ s t + 1 ∈ S E [ G t + 1 ∣ S t + 1 = s t + 1 ] P ( S t + 1 = s t + 1 ∣ S t = s t ) = r ( s ) + γ ∑ s ′ ∈ S V ( s ′ ) p ( s ′ ∣ s ) \begin{align} V(s) &= \mathbb{E}[G_{t}|S_{t}= s] \\ &= \mathbb{E}[R_{t}+ \gamma (R_{t+1}+ \gamma R_{t+2}+\gamma^2R_{t+3}+\dots)|S_{t}=s] \\ &= \mathbb{E}[R_{t}+\gamma G_{t+1}|S_{t}=s] \\ &= \mathbb{E}[R_{t}|S_{t}=s] + \gamma \sum_{s_{t+1}\in \mathcal{S}}\mathbb{E}[G_{t+1}|S_{t+1}=s_{t+1}] \mathbb{P}(S_{t+1}=s_{t+1}| S_{t}=s_{t}) \\ &= r(s) + \gamma \sum_{s' \in \mathcal{S}} V(s') p(s'|s) \end{align} V ( s ) = E [ G t ∣ S t = s ] = E [ R t + γ ( R t + 1 + γ R t + 2 + γ 2 R t + 3 + … ) ∣ S t = s ] = E [ R t + γ G t + 1 ∣ S t = s ] = E [ R t ∣ S t = s ] + γ s t + 1 ∈ S ∑ E [ G t + 1 ∣ S t + 1 = s t + 1 ] P ( S t + 1 = s t + 1 ∣ S t = s t ) = r ( s ) + γ s ′ ∈ S ∑ V ( s ′ ) p ( s ′ ∣ s ) 可以看到,任意状态 s s s 的价值可以理解为以下几项之和:
当前拿到的及时奖励 r ( s ) r(s) r ( s ) 未来价值的期望:所有在下一个时刻可能的状态 s ′ s' s ′ 计算各自的价值 V ( s ′ ) V(s') V ( s ′ ) 计算各自的概率,即转移函数 p ( s ′ ∣ s ) p(s'|s) p ( s ′ ∣ s ) 两者相乘,再乘以折扣因子 γ \gamma γ
将价值、转移函数和奖励向量化,则得到:
V = R + γ P V ⟹ V = ( 1 − γ P ) − 1 R \mathcal{V} = \mathcal{R} + \gamma \mathcal{P} \mathcal{V} \implies \mathcal{V} = (1 - \gamma \mathcal{P})^{-1} \mathcal{R} V = R + γ P V ⟹ V = ( 1 − γ P ) − 1 R 其中 V = [ V ( s 1 ) ⋮ V ( s n ) ] \mathcal{V} = \begin{bmatrix} V(s_{1}) \\ \vdots \\ V(s_{n})\end{bmatrix} V = V ( s 1 ) ⋮ V ( s n )
马尔可夫决策过程 NOTE 现在考虑有智能体参与的环境,智能体通过做出动作改变了状态之间的转移概率以及获得奖励的方式。
重要概念:在本章节中,虽然 {状态/动作} 价值函数同样也是表达 {特定状态/基于现在状态做出特定动作} 的远期期望收益,但是现在其和智能体采取的策略 π \pi π ,也就是智能体具体会做什么动作有关。
问题建模 智能体 (agent) . 之前介绍的过程是自发改变的随机过程,现在我们引入外界的“刺激”来改变这个随机过程,我们将这个刺激称为智能体。具体而言,在基础的马尔可夫过程中,环境会从 s t → s t + 1 → s t + 2 → … s_{t} \to s_{t+1} \to s_{t+2} \to \dots s t → s t + 1 → s t + 2 → … 从状态到状态的变化。智能体在中间引入了动作的概念,即:
智能体有一些可选的动作(action) ,其集合为 A \mathcal{A} A 智能体的 策略 (policy) . 这些动作是基于输入状态 s s s 采取的。基于状态 s s s 的情况下,智能体采取动作 a a a 的概率为:π ( a ∣ s ) = P ( A t = a ∣ S t = s ) \pi(a|s) = \mathbb{P}(A_{t}=a|S_{t}=s) π ( a ∣ s ) = P ( A t = a ∣ S t = s ) . 状态转移函数:现在下一个时刻的状态不仅取决于上一个时刻的状态,还取决于上一个时刻智能体所做出的动作:P ( s ′ ∣ s , a ) \mathbb{P}(s'|s,a) P ( s ′ ∣ s , a ) 奖励函数:现在奖励函数不只是由状态,还和智能体决策(动作)一起共同决定:r ( s , a ) r(s,a) r ( s , a ) 这意味着智能体不再是进入状态 s s s 就获得奖励,而是基于状态 s s s 做出动作 a a a 再获得奖励
马尔可夫决策过程 (Markov decision process) . 在马尔可夫奖励过程的基础上,引入智能体的动作概念,并且修改状态转移函数和奖励函数,使其现在和智能体的动作有关:
Markov decision process = ⟨ S , A , P ( s ′ ∣ s , a ) , r ( s , a ) , γ ⟩ \text{Markov decision process}= \langle \mathcal{S}, \mathcal{A}, \mathbb{P}(s'|s,a), r(s,a), \gamma \rangle Markov decision process = ⟨ S , A , P ( s ′ ∣ s , a ) , r ( s , a ) , γ ⟩ 状态价值函数和动作价值函数
状态价值函数 (state-value function) . 和在马尔可夫奖励过程的状态的价值函数相似,描述从状态 s s s 出发,遵守策略 π \pi π 所能获得期望回报:
V π ( s ) = E π [ G t ∣ S t = s ] V^\pi (s) = \mathbb{E}_{\pi}[G_{t}|S_{t}=s] V π ( s ) = E π [ G t ∣ S t = s ] 贝尔曼期望方程 (Bellman Expectation Equation)——状态价值函数 :
智能体会基于该状态 s s s 做出动作 a a a ,且概率为 π ( s , a ) \pi(s,a) π ( s , a ) 对于每个动作 a a a ,会带来奖励 r ( s , a ) r(s,a) r ( s , a ) 这会导致智能体可能进入状态 s ′ s' s ′ ,概率为 p ( s ′ ∣ s , a ) p(s'|s,a) p ( s ′ ∣ s , a ) 对应的状态 s ′ s' s ′ 具有价值 V π ( s ′ ) V^\pi(s') V π ( s ′ ) 因为是远期收益,需要加上折扣因子 γ \gamma γ 因此,可以写为:
V π ( s ) = E π [ G t ∣ S t = s ] = E π [ R t + γ R t + 1 + γ 2 R t + 2 + … ∣ S t = s ] = E π [ R t ∣ S t = s ] + γ E π [ G t + 1 ∣ S t = s ] = ∑ a ∈ A π ( a ∣ s ) r ( s , a ) + γ ∑ a ∈ A ∑ s ′ ∈ S π ( a ∣ s ) P ( s ′ ∣ s , a ) ⏟ probability of transitioning from s to s ′ via a E π [ G t + 1 ∣ S t + 1 = s ′ ] = ∑ a ∈ A π ( a ∣ s ) ( r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) V π ( s ′ ) ) \begin{align} V^\pi (s) &= \mathbb{E}_{\pi}[G_{t}|S_{t}=s] \\ &= \mathbb{E}_{\pi}[R_{t}+\gamma R_{t+1}+ \gamma^2R_{t+2}+ \dots |S_{t}=s] \\ &= \mathbb{E}_{\pi}[R_{t}|S_{t}=s] + \gamma \mathbb{E}_{\pi} [G_{t+1}|S_{t}=s] \\ &= \sum_{a \in \mathcal{A}}\pi(a|s)r(s,a) + \gamma\sum_{a\in \mathcal{A}} \sum_{s' \in \mathcal{S}} \underbrace{\pi(a|s)\,\mathbb{P}(s'|s,a)}_{\text{probability of transitioning from } s \text{ to } s' \text{ via } a}\mathbb{E}_{\pi}[G_{t+1}|S_{t+1}=s'] \\ &= \sum_{a\in\mathcal{A}} \pi(a|s) \left( r(s,a) + \gamma \sum_{s' \in \mathcal{S}} \mathbb{P}(s'|s, a) V^\pi (s') \right) \end{align} V π ( s ) = E π [ G t ∣ S t = s ] = E π [ R t + γ R t + 1 + γ 2 R t + 2 + … ∣ S t = s ] = E π [ R t ∣ S t = s ] + γ E π [ G t + 1 ∣ S t = s ] = a ∈ A ∑ π ( a ∣ s ) r ( s , a ) + γ a ∈ A ∑ s ′ ∈ S ∑ probability of transitioning from s to s ′ via a π ( a ∣ s ) P ( s ′ ∣ s , a ) E π [ G t + 1 ∣ S t + 1 = s ′ ] = a ∈ A ∑ π ( a ∣ s ) ( r ( s , a ) + γ s ′ ∈ S ∑ P ( s ′ ∣ s , a ) V π ( s ′ ) ) 动作价值函数 (action-value function) . 与此同时,我们需要衡量在当前策略下,对当前状态 s s s 做出动作 a a a 所带来的收益:
Q π ( s , a ) = E π [ G t ∣ S t = s , A t = a ] Q^\pi (s, a) = \mathbb{E}_{\pi}[G_{t}|S_{t}=s, A_{t}=a] Q π ( s , a ) = E π [ G t ∣ S t = s , A t = a ] 动作价值函数和状态价值函数的关系:
状态 s s s 的价值函数等于策略 π \pi π 基于状态 s s s 采取动作 a a a 的概率 π ( a ∣ s ) \pi(a|s) π ( a ∣ s ) 乘以这个动作的价值 Q π ( s , a ) Q^\pi(s,a) Q π ( s , a ) 动作 ( s , a ) (s,a) ( s , a ) 的价值函数等于及时奖励 加上经过衰减后的未来奖励,即下一个时刻进入状态 s ′ s' s ′ 的概率 P ( s ′ ∣ s , a ) \mathbb{P}(s'|s,a) P ( s ′ ∣ s , a ) 对应状态 s ′ s' s ′ 的价值 V π ( s ′ ) V^\pi (s') V π ( s ′ ) 的加权求和 用公式表达即:
{ V π ( s ) = ∑ a ∈ A π ( a ∣ s ) Q π ( s , a ) Q π ( s , a ) = r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) V π ( s ′ ) \begin{cases} V^\pi(s) = \sum_{a \in \mathcal{A}} \pi(a|s) Q^\pi (s, a) \\ Q^\pi(s,a) = r(s,a) + \gamma\sum_{s' \in \mathcal{S}} \mathbb{P}(s'|s,a) V^\pi (s') \end{cases} { V π ( s ) = ∑ a ∈ A π ( a ∣ s ) Q π ( s , a ) Q π ( s , a ) = r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) V π ( s ′ ) 贝尔曼期望方程 (Bellman Expectation Equation)——动作价值函数 :基于以上两个关系,可以消除 V π ( s ) V^\pi(s) V π ( s ) ,得到 Q π ( s , a ) Q^\pi(s,a) Q π ( s , a ) 的表达式:
Q π ( s , a ) = r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) ∑ a ′ ∈ A π ( a ′ ∣ s ′ ) Q π ( s ′ , a ′ ) Q^\pi(s,a) = r(s, a) + \gamma \sum_{s' \in\mathcal{S}} \mathbb{P}(s'|s,a) \sum_{a' \in A}\pi(a'|s') Q^\pi (s',a') Q π ( s , a ) = r ( s , a ) + γ s ′ ∈ S ∑ P ( s ′ ∣ s , a ) a ′ ∈ A ∑ π ( a ′ ∣ s ′ ) Q π ( s ′ , a ′ ) 这些公式可以直接从图中直观观察到,本质上是概率乘以对应奖励加权求和。
马尔可夫决策过程求解 通过贝尔曼方程,我们可以得到马尔可夫奖励过程的解析解。基于此,我们通过将马尔可夫决策过程退化成马尔可夫奖励过程得到其解析解:
状态奖励:从 r ( s , a ) r(s,a) r ( s , a ) 到 r ( s ) r(s) r ( s ) 做动作奖励的加权求和:
r ( s ) = ∑ a ∈ A π ( a ∣ s ) r ( s , a ) r(s) = \sum_{a\in \mathcal{A}} \pi(a|s) r(s, a) r ( s ) = a ∈ A ∑ π ( a ∣ s ) r ( s , a ) 同理,从 p ( s ′ ∣ s , a ) p(s'|s,a) p ( s ′ ∣ s , a ) 到 p ( s ′ ∣ s ) p(s'|s) p ( s ′ ∣ s ) 转移概率也对所有动作做加权求和:
P ( s ′ ∣ s ) = ∑ a ∈ A π ( a ∣ s ) P ( s ′ ∣ s , a ) \mathbb{P}(s'|s)= \sum_{a\in \mathcal{A}} \pi(a|s) \mathbb{P}(s'|s,a) P ( s ′ ∣ s ) = a ∈ A ∑ π ( a ∣ s ) P ( s ′ ∣ s , a ) 这样就可以做 MDP 到 MRP 的转换:
⟨ S , A , P ( s ′ ∣ s , a ) , r ( s , a ) , γ ⟩ → ⟨ S , P ′ ( s ′ ∣ s ) , r ′ ( s ) , γ ⟩ \langle \mathcal{S}, \mathcal{A}, \mathbb{P}(s'|s,a), r(s,a), \gamma \rangle \to \langle \mathcal{S}, \mathbb{P}'(s'|s), r'(s), \gamma \rangle ⟨ S , A , P ( s ′ ∣ s , a ) , r ( s , a ) , γ ⟩ → ⟨ S , P ′ ( s ′ ∣ s ) , r ′ ( s ) , γ ⟩ 最优策略和贝尔曼最优方程 NOTE 最优策略 : 最优策略的目标是找到一个策略,使得其对应的价值函数在所有策略中最大。
最优策略 . 如何定义一个策略 π ( a ∣ s ) \pi(a|s) π ( a ∣ s ) 是最优的?
这意味着从任意状态 s ∈ S s \in \mathcal{S} s ∈ S 出发,智能体所获得的预期远期收益都是最高的 这个期望收益可以用状态价值函数来描述 因此,如果 π ∗ ∈ Π \pi^* \in \Pi π ∗ ∈ Π 是最优策略,它满足:
∀ s ∈ S , V ∗ ( s ) = max π V π ( s ) \forall s\in \mathcal{S}, \quad V^{*} (s) = \max_{\pi}V^\pi(s) ∀ s ∈ S , V ∗ ( s ) = π max V π ( s ) 其中 V ∗ ( s ) = V π ∗ ( s ) V^*(s) = V^{\pi^*}(s) V ∗ ( s ) = V π ∗ ( s ) ,
换言之,当系统处于状态 s s s 的时候,最优策略是所有策略中使其价值函数最大的那一个:
π ∗ = arg max π V π ( s ) \boxed{\pi^* = \arg \max_{\pi} V^\pi(s)} π ∗ = arg π max V π ( s ) 同样的,对于任意状态-动作对 ( s , a ) ∈ S × A (s,a)\in \mathcal{S}\times\mathcal{A} ( s , a ) ∈ S × A (意思是处于状态 s s s 且智能体采取动作 a a a 的情况下),策略π ∗ \pi^* π ∗ 最优意味着:在之后继续采取策略 π ∗ \pi^* π ∗ 为这个状态-动作对所带来的远期价值最高。
∀ ( s , a ) ∈ S × A , Q ∗ ( s , a ) = max π Q π ( s , a ) \forall (s, a) \in \mathcal{S} \times \mathcal{A}, \quad Q^*(s,a) = \max_{\pi}Q^\pi (s, a) ∀ ( s , a ) ∈ S × A , Q ∗ ( s , a ) = π max Q π ( s , a ) 最优策略在任意状态 s s s 下,一定会在所有可能的状态-动作对 ( s , . ) (s,.) ( s , . ) 中,采取动作 a a a 使得状态-动作对 ( s , a ) (s,a) ( s , a ) 使得其动作价值最高。 换言之:
π ∗ ( s ) ∈ arg max a ∈ A Q ∗ ( s , a ) , V ∗ ( s ) = max a ∈ A Q ∗ ( s , a ) \pi^*(s) \in \arg \max_{a \in \mathcal{A}}Q^*(s, a), \quad V^*(s) = \max_{a \in \mathcal{A}} Q^*(s, a) π ∗ ( s ) ∈ arg a ∈ A max Q ∗ ( s , a ) , V ∗ ( s ) = a ∈ A max Q ∗ ( s , a ) 如果 π ∗ \pi^* π ∗ 是确定性策略,则 V ∗ ( s ) = Q ∗ ( s , π ∗ ( s ) ) V^*(s)= Q^*(s, \pi^*(s)) V ∗ ( s ) = Q ∗ ( s , π ∗ ( s ))
贝尔曼最优方程 (Bellman optimality equation) . 对于最优状态价值函数和最优动作价值函数进行推导。
首先最优策略意味着在状态-动作对 ( s , a ) (s,a) ( s , a ) 下,无论在下一个时刻进入哪个状态 s ′ s' s ′ ,都会带来该状态的最优状态价值。这意味着:
Q ∗ ( s , a ) = r ( s , a ) + γ ∑ s ∈ S p ( s ′ ∣ s , a ) V ∗ ( s ′ ) = r ( s , a ) + γ ∑ s ∈ S p ( s ′ ∣ s , a ) max a ∈ A Q ∗ ( s , a ) \begin{align} Q^*(s, a) &= r(s,a) + \gamma \sum_{s\in \mathcal{S}} p(s'|s,a) V^* (s') \\ &= r(s,a) + \gamma \sum_{s\in \mathcal{S}} p(s'|s,a) \max_{a\in \mathcal{A}} Q^*(s,a) \end{align} Q ∗ ( s , a ) = r ( s , a ) + γ s ∈ S ∑ p ( s ′ ∣ s , a ) V ∗ ( s ′ ) = r ( s , a ) + γ s ∈ S ∑ p ( s ′ ∣ s , a ) a ∈ A max Q ∗ ( s , a ) 将这个表达式代回最优状态价值函数,我们得到:
V ∗ ( s ) = max a ∈ A { r ( s , a ) + γ ∑ s ′ ∈ S p ( s ′ ∣ s , a ) V ∗ ( s ′ ) } V^*(s) = \max_{a\in \mathcal{A}} \left\{ r(s,a) + \gamma \sum_{s' \in \mathcal{S}} p(s'|s,a) V^*(s') \right\} V ∗ ( s ) = a ∈ A max { r ( s , a ) + γ s ′ ∈ S ∑ p ( s ′ ∣ s , a ) V ∗ ( s ′ ) } 最优策略的解 在本章节我们将会介绍两种算法,在已知转移函数 p ( s ′ ∣ s , a ) p(s'|s,a) p ( s ′ ∣ s , a ) 和奖励函数 r ( s , a ) r(s,a) r ( s , a ) 的马尔可夫决策过程下,如何解得最优策略。
策略迭代算法 现在我们希望得到最优策略。现在我们知道:
对于任意策略 π \pi π ,其对应一种状态价值函数 V π ( s ) V^\pi(s) V π ( s ) 和动作价值函数 Q π ( s , a ) Q^{\pi}(s, a) Q π ( s , a ) 因此当策略发生变化的时候,需要重新评估这两个值 可不可以通过迭代的方式,持续优化策略使得其逐渐靠近最优策略? 这等价于:
⋯ → π i → Evaluation V π i → Optimization → π i + 1 → ⋯ → π ∗ \dots \to \pi_{i} \to^\text{Evaluation} V^{\pi_{i}} \to^\text{Optimization} \to \pi_{i+1} \to \dots \to \pi^* ⋯ → π i → Evaluation V π i → Optimization → π i + 1 → ⋯ → π ∗ 基于以上思想,策略迭代算法
从初始策略 π 0 \pi_{0} π 0 开始 反复进行:对于当前策略 π i \pi_{i} π i 对该策略进行评估,即计算其状态价值函数 对该策略进行提升,即找到一个不差于该策略的策略 π i + 1 \pi_{i+1} π i + 1 直到状态价值函数优化程度提升幅度小于一定程度停止 策略评估 :得到当前策略 π i \pi_{i} π i 的状态价值函数。这可以通过贝尔曼期望方程 中的最优状态价值函数推导。这可以通过迭代+不动点的思想计算,即对于策略 π i \pi_{i} π i
将状态价值函数随机初始化,得到 V 0 ( s ) V^0(s) V 0 ( s ) 当前轮的状态价值函数用上一轮的状态价值计算 最终状态价值函数一定会收敛到该策略的实际状态价值函数 V k → k → + ∞ V π i V^k \to_{k \to + \infty} V^{\pi_{i}} V k → k → + ∞ V π i ∀ s ∈ S , V k + 1 ( s ) = ∑ a ∈ A π ( a ∣ s ) ( r ( s , a ) + ∑ s ′ ∈ S p ( s ′ ∣ s , a ) V k ( s ) ) \forall s\in\mathcal{S}, \quad V^{k+1}(s) = \sum_{a\in \mathcal{A}} \pi(a|s) \left( r(s,a) + \sum_{s' \in \mathcal{S}} p(s'|s, a)V^k(s)\right) ∀ s ∈ S , V k + 1 ( s ) = a ∈ A ∑ π ( a ∣ s ) ( r ( s , a ) + s ′ ∈ S ∑ p ( s ′ ∣ s , a ) V k ( s ) ) 策略优化 :找到一个新策略 π i + 1 \pi_{i+1} π i + 1 使其不差于当前策略 π i \pi_{i} π i . 这意味着对于任意状态
∀ s ∈ S , Q π i ( s , π i + 1 ( s ) ) ≥ V π i ( s ) \forall s \in \mathcal{S}, \quad Q^{\pi_{i}}(s, \pi_{i+1}(s)) \geq V^{\pi_{i}}(s) ∀ s ∈ S , Q π i ( s , π i + 1 ( s )) ≥ V π i ( s ) 我们可以对于任意状态 s s s ,贪心选取在目前策略 π i \pi_{i} π i 下,对每一个状态 s s s 选取动作价值最大的动作 ,因此
∀ s ∈ S , π i + 1 ( s ) = arg max a ∈ A Q π i ( s , a ) = arg max a ∈ A { r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) V π ( s ′ ) } \forall s \in\mathcal{S}, \quad \pi_{i+1}(s) = \arg\max_{a\in \mathcal{A}} Q^{\pi_{i} } (s,a) = \arg \max_{a\in\mathcal{A}} \left\{r(s,a) + \gamma\sum_{s' \in \mathcal{S}} \mathbb{P}(s'|s,a) V^\pi (s')\right\} ∀ s ∈ S , π i + 1 ( s ) = arg a ∈ A max Q π i ( s , a ) = arg a ∈ A max { r ( s , a ) + γ s ′ ∈ S ∑ P ( s ′ ∣ s , a ) V π ( s ′ ) } 当优化程度小于一定阀值 Δ \Delta Δ 即停止。
具体算法表述:
价值迭代算法 贝尔曼最优方程告诉我们在最优情况下价值是怎么样的。这意味着我们可以利用这个公式,在目前时刻做出决策之后,假设未来时刻都一直是最优的,反推现在应该如何做。
通过贝尔曼最优方程我们得到价值最优函数的表达式:
V ∗ ( s ) = max a ∈ A { r ( s , a ) + γ ∑ s ′ ∈ S p ( s ′ ∣ s , a ) V ∗ ( s ′ ) } V^*(s) = \max_{a\in \mathcal{A}} \left\{ r(s,a) + \gamma \sum_{s' \in \mathcal{S}} p(s'|s,a) V^*(s') \right\} V ∗ ( s ) = a ∈ A max { r ( s , a ) + γ s ′ ∈ S ∑ p ( s ′ ∣ s , a ) V ∗ ( s ′ ) } 这个公式可以通过动态规划做求解:
迭代求解,等式左边的 V ∗ ( s ) V^*(s) V ∗ ( s ) 为 V k + 1 V_{k+1} V k + 1 ,等式右边的为 V k V_{k} V k V ∗ V^* V ∗ 是这个方程的不动点,因此当 V k + 1 = V k V_{k+1}=V_{k} V k + 1 = V k 时我们就找到了想求的 V ∗ V^* V ∗ 再求得价值最优函数后,我们直接定义策略 π \pi π 对每一个状态 s s s 采取动作价值最大的动作 a a a
∀ s ∈ S , π ( s ) = arg max a ∈ A Q ∗ ( s , a ) = arg max a ∈ A { r ( s , a ) + γ ∑ s ′ ∈ S P ( s ′ ∣ s , a ) V ∗ ( s ′ ) } \forall s \in\mathcal{S}, \quad \pi(s) = \arg\max_{a\in \mathcal{A}} Q^{ *} (s,a) = \arg \max_{a\in\mathcal{A}} \left\{r(s,a) + \gamma\sum_{s' \in \mathcal{S}} \mathbb{P}(s'|s,a) V^* (s')\right\} ∀ s ∈ S , π ( s ) = arg a ∈ A max Q ∗ ( s , a ) = arg a ∈ A max { r ( s , a ) + γ s ′ ∈ S ∑ P ( s ′ ∣ s , a ) V ∗ ( s ′ ) } 容易得到 π \pi π 就是我们想求的最优策略。
参考资料