强化学习之路一 QLearning 算法

Q-Learning算法

理论

Q-Learning是一种强化学习算法,用于学习在给定状态下采取不同行动的最佳策略。其公式如下:

\(Q(s,a) \leftarrow (1 – \alpha) \cdot Q(s,a) + \alpha \cdot (r + \gamma \cdot \max_{a’} Q(s’,a’))\)

其中,\(Q(s,a)\)是在状态\(s\)下采取行动\(a\)的预期回报,\(\alpha\)是学习率,\(r\)是在状态\(s\)下采取行动\(a\)的即时回报,\(\gamma\)是折扣因子,\(s’\)是采取行动\(a\)后得到的新状态。\(\max_{a’} Q(s’,a’)\)是在新状态\(s’\)下采取不同行动所能获得的最大预期回报。

Q-Learning公式的意义是,在当前状态\(s\)下采取行动\(a\),更新当前状态下采取行动\(a\)的预期回报\(Q(s,a)\)。更新公式中的第一项表示当前状态下采取行动\(a\)的原始预期回报,第二项表示从当前状态采取行动\(a\)后得到的新状态\(s’\)的最大预期回报。通过不断更新\(Q(s,a)\),我们可以学习到在不同状态下采取不同行动的最佳策略。

将理论转换为简单易懂的python的代码:

alpha = 0.1
gamma = 0.5

# s 当前状态 就是一个位置信息
# a 执行动作 上下左右
# newS 当前状态执行动作后的新状态
# r 为执行动作a后,环境给的奖励
def updateQ(s, a, r):
    newS = None
    if a == 0: # 上
        newS = (s[0]-1, s[1])
    elif a == 1: # 下
        newS = (s[0]+1, s[1])
    elif a == 2: # 左
        newS = (s[0], s[1]-1)
    elif a == 3: # 右
        newS = (s[0], s[1]+1)

    Q[s][a] += alpha * (r + gamma * max(Q[newS]) - Q[s][a])

中间小插曲

刚开始看到理论后,就开始撸代码了,没有看其他人的写的代码, 结果翻车了。
根据我的理解,我刚开始代码的Q表是每个状态的价值表。动作的变化,引发环境改变,环境改变给出一个奖励, 然后在更新Q表。
大家一定要注意是对Q表存的是每个状态的每个动作的评价值
不过经过翻车,也算是加深了对Qlearning的理解

实际能运行demo

#coding:utf8
import random
import math
import gym
from gym import spaces
import numpy as np
S = "S" # 起始块
G = "G" # 目标块
F = "F" # 冻结块
H = "H" # 危险块
# 这个环境规则就是, 从S点走到G点,中间走到H点就GameOver
class MyEnv(gym.Env):
    metadata = {'render.modes': ['human']}

    def __init__(self):
        self.board = np.array([
            [S, F, F, F],
            [F, H, F, H],
            [F, F, F, H],
            [H, F, F, G],
        ])
        self.height, self.width = self.board.shape

        # 定义动作空间和观察空间
        self.action_space = spaces.Discrete(4) # 上下左右
        self.observation_space = spaces.Tuple((
            spaces.Discrete(self.height),
            spaces.Discrete(self.width)
        ))
        self.reset()

    def step(self, action):
        if action == 0: # 上
            next_pos = (self.current_pos[0]-1, self.current_pos[1])
        elif action == 1: # 下
            next_pos = (self.current_pos[0]+1, self.current_pos[1])
        elif action == 2: # 左
            next_pos = (self.current_pos[0], self.current_pos[1]-1)
        elif action == 3: # 右
            next_pos = (self.current_pos[0], self.current_pos[1]+1)

        assert self._is_valid_pos(next_pos)

        # 步骤越多模型越差
        self.steps += 0.1
        if self.board[next_pos] == H:
            reward = -self.steps -self.width*self.height
            self.done = True
        elif self.board[next_pos] == G:
            reward = -self.steps
            self.done = True
        else:
            reward = -self.steps - abs(next_pos[0]-3) - abs(next_pos[1]-3)
            self.done = False

        self.current_pos = next_pos
        return self.current_pos, reward, self.done, self.board[next_pos] == H

    def reset(self):
        self.current_pos = (0, 0)
        self.done = False
        self.steps = 0
        return self.current_pos

    def render(self, mode='human'):
        for i in range(self.height):
            for j in range(self.width):
                if (i, j) == self.current_pos:
                    print("*", end="")
                else:
                    print(self.board[i][j], end="")
            print()
        print()

    def _is_valid_pos(self, pos):
        if pos[0] < 0 or pos[0] >= self.height or pos[1] < 0 or pos[1] >= self.width:
            return False
        return True
    
def softmax(x):
    exp_x = np.exp(x)
    return exp_x / np.sum(exp_x)
    
# 定义获取当前位置动作的函数
def get_actions(row, col):
    actions = []
    if row < 3:  # 如果不在最后一行,则可以向下移动
        actions.append(1)
    if col < 3:  # 如果不在最后一列,则可以向右移动
        actions.append(3)
    if row > 0:  # 如果不在第一行,则可以向上移动
        actions.append(0)
    if col > 0:  # 如果不在第一列,则可以向左移动
        actions.append(2)
    return actions

env = MyEnv()
ACTIONS = np.arange(4)
ACTIONS_STR = '上|下|左|右'.split('|')

Q = np.random.rand(4, 4, 4)
for i in range(4):
    for j in range(4):
        actions = get_actions(i, j)
        for k in range(4):
            if k not in actions:
                # 经过soeftmax之后,执行这个动作的概率为0
                Q[(i, j, k)] = -float("inf")
            else:
                Q[(i, j, k)] = 0

def printQ():
    for i in range(4):
        for j in range(4):
            print("{}_{}: ".format(i,j), Q[(i,j)])

def getAction(s):
    action = np.argmax(softmax(Q[s]))
    return action

def train():
    alpha = 0.1
    gamma = 0.95
    # 90%概率
    useQ = 0.9
    for i in range(100):
        s = env.reset()
        while True:
            env.render()
            # 根据状态获取s, 选择一个动作
            can_actions = get_actions(s[0], s[1])
            action = getAction(s) if np.random.uniform() < useQ else np.random.choice(can_actions)
            assert action in can_actions
            nextPos, reward, done, isH =  env.step(action)
            if done: # game over 没有下一个状态
                Q[s][action] +=  alpha * (reward - Q[s][action])
                break
            else:
                Q[s][action] +=  alpha * (reward + gamma * max(Q[nextPos]) - Q[s][action])
            s = nextPos
def play():
    s = env.reset()
    env.render()
    while True:
        # 根据状态获取s, 选择一个动作
        action = getAction(s)
        print('执行了动作:', ACTIONS_STR[action])
        nextPos, reward, done, _ =  env.step(action)
        s = nextPos
        env.render()
        if done:
            print(reward)
            break

train()
printQ()
play()

展望

写这个花费了很久,第一个原因是Q表创建错误, 第二个是中间非常容易死循环。
写这个需要考虑到底需要迭代多少次合适,以及奖励应该怎么定合适,一定要有概率不按Q表选择动作, 因为容易出现死循环。训练步骤不能太少,Q表信息不够,也是容易出现死循环。
这个例子环境是固定的,环境变化,必须重新训练
奖励函数现在是 -step – 曼哈顿距离, 也就是说步骤越少以及距离越小,函数值越大
对无效动作给了-float(“inf”), 充当动作的MASK, 使用softmax去映射,会得到0
image