Ppo CartPole V1
这是一个使用 stable-baselines3 库训练的 PPO 智能体模型,专门用于解决 CartPole-v1 强化学习任务。
物理学模型
P
somya17ban
14
1
Poca SoccerTwos
一个基于Unity ML-Agents训练的深度强化学习智能体,专门用于双人足球游戏场景。
目标检测
P
honestlyanubhav
118
1
Ppo LunarLander V2
这是一个基于PPO算法的强化学习模型,专门针对LunarLander-v2环境进行训练,能够控制登月器安全着陆。
物理学模型
P
sofiascat
14
1
Ppo Huggy
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专门为哈吉游戏设计。
多模态融合
TensorBoard

P
alex17127
75
1
Ppo Huggy
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专门用于运行哈吉游戏。
多模态融合
TensorBoard

P
ErenDoymus
30
1
Ppo Huggy
这是一个基于Unity ML-Agents库训练的PPO智能体模型,专门用于控制虚拟狗狗哈吉的行为。
目标检测
TensorBoard

P
hellonihao
52
1
Ppo LunarLander V2
这是一个基于PPO算法的强化学习模型,专门用于解决LunarLander-v2环境中的着陆任务。
物理学模型
P
tooalvin
13
1
Ppo Huggy
这是一个基于Unity ML-Agents库训练的PPO智能体模型,专门用于哈吉游戏中的强化学习任务。
多模态融合
TensorBoard

P
PampX
16
2
Poca SoccerTwos
一个基于Unity ML-Agents训练的深度强化学习模型,专门用于双人足球游戏场景
分子模型
TensorBoard

P
hishamcse
20
1
Mlunitypyramids
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专门用于在金字塔环境中进行游戏。
多模态融合
TensorBoard

M
motmono
21
0
Test Worm
这是一个基于PPO算法的强化学习智能体,专门为Unity的蠕虫游戏训练而成。
图像生成
TensorBoard

T
damilare-akin
15
0
Testworm
一个基于PPO算法的强化学习智能体,专门训练用于玩贪吃蛇游戏
图像生成
TensorBoard

T
curt-tigges
85
0
Mlagents Worm
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专为Worm游戏设计。
多模态融合
TensorBoard

M
danieladejumo
17
0
Testpushblock
一个基于PPO算法训练的深度强化学习智能体,用于Unity的PushBlock游戏环境
分子模型
TensorBoard

T
rebolforces
30
0
Pushblock
这是一个基于PPO算法的强化学习智能体,专门训练用于在Unity的PushBlock环境中完成任务。
多模态融合
TensorBoard

P
mrm8488
35
0
Worm Unity ML
这是一个使用Unity ML-Agents库训练的ppo智能体模型,专门用于Worm游戏环境。
分子模型
TensorBoard

W
comodoro
14
0
Pyramidsrnd
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专门用于在金字塔环境中进行游戏和决策。
目标检测
TensorBoard

P
mrm8488
25
1
Unitypyramidsrnd
这是一个基于PPO算法的强化学习智能体,专门为Unity的ML-Agents金字塔环境训练而成。
目标检测
TensorBoard

U
jakka
15
0
Testpyramidsrnd2
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专门用于运行金字塔游戏。
目标检测
TensorBoard

T
micheljperez
16
0
Mlagents Worm
这是一个基于Unity ML-Agents训练的PPO智能体模型,专门用于Worm游戏环境。
目标检测
TensorBoard

M
infinitejoy
19
0
Ppo LunarLander V2
这是一个基于PPO算法的强化学习模型,用于解决月球着陆器-v2环境中的控制任务。
物理学模型
P
sigalaz
20
0
Unity Pyramids
这是一个基于Unity ML-Agents训练的PPO智能体模型,专门用于运行金字塔游戏环境
目标检测
TensorBoard

U
ra-XOr
23
1
Ppo LunarLander V2
这是一个基于PPO算法的强化学习模型,专门针对LunarLander-v2环境训练,用于控制月球着陆器安全着陆。
物理学模型
P
andri
16
0
Sac Hopper V3
这是一个基于SAC算法的强化学习模型,用于在Hopper-v3环境中控制机器人跳跃运动。
物理学模型
S
sb3
44
0
Sac Walker2d V3
这是一个基于SAC算法的强化学习模型,专为Walker2d-v3环境设计,能够控制双足机器人行走。
物理学模型
S
sb3
43
0
Assignment2 Omar
这是一个基于PPO算法的强化学习模型,专门用于解决LunarLander-v2环境中的着陆任务。
物理学模型
A
Classroom-workshop
135
3
Td3 MountainCarContinuous V0
一个基于stable-baselines3库训练的TD3强化学习智能体,专为MountainCarContinuous-v0环境设计。
物理学模型
T
sb3
203
0
Td3 HalfCheetah V3
这是一个基于stable-baselines3库训练的TD3强化学习智能体,专为HalfCheetah-v3环境设计,平均奖励达到9709.01。
物理学模型
T
sb3
23
0
Sealswalker2d V0
这是一个基于PPO算法的强化学习智能体,专门为seals/Walker2d-v0环境训练,用于控制Walker2d机器人行走任务。
物理学模型
S
ernestumorga
0
0
Sac Pendulum V1
这是一个基于SAC算法的强化学习模型,用于解决Pendulum-v1环境中的控制问题。
物理学模型
S
sb3
39
0
Ppo Huggy
这是一个使用Unity ML-Agents库训练的PPO智能体模型,专门用于玩Huggy游戏。
图像生成
TensorBoard

P
ThomasSimonini
28
2
Ball Test
一个基于PPO算法的强化学习智能体,用于控制Unity 3DBall环境中的平衡球任务
3D视觉
TensorBoard

B
osanseviero
29
0
Ball
这是一个使用PPO算法训练的强化学习智能体,用于控制Unity 3DBall游戏中的平衡球任务。
3D视觉
TensorBoard

B
ThomasSimonini
23
0
Ppo BreakoutNoFrameskip V4
使用PPO算法在雅达利游戏Breakout环境中训练的深度强化学习模型
视频处理
P
ThomasSimonini
459
3
Ppo SeaquestNoFrameskip V4
这是一个使用stable-baselines3库训练的PPO智能体模型,专门用于玩雅达利游戏SeaquestNoFrameskip-v4。
视频处理
P
ThomasSimonini
205
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文