P

Ppo BreakoutNoFrameskip V4

由 ThomasSimonini 开发
使用PPO算法在雅达利游戏Breakout环境中训练的深度强化学习模型
下载量 459
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型基于stable-baselines3库实现,使用PPO算法在BreakoutNoFrameskip-v4环境中训练,能够玩转经典的雅达利Breakout游戏。

模型特点

基于PPO算法
使用近端策略优化(PPO)算法,这是一种在强化学习中广泛使用的策略梯度方法
帧堆叠处理
采用4帧堆叠技术处理游戏画面,使模型能够感知时间动态
并行环境训练
使用8个并行环境进行训练,提高样本收集效率
稳定训练
采用多种稳定化技术如梯度裁剪、价值函数系数等确保训练稳定性

模型能力

雅达利游戏控制
强化学习决策
实时游戏交互

使用案例

游戏AI
Breakout游戏AI
作为Breakout游戏的自动玩家,能够持续获得高分
平均奖励达到339分
强化学习研究
算法基准测试
可作为PPO算法在雅达利游戏上的性能基准