Llama 3.1 70B Instruct RM RB2
Llama-3.1-70B-Instruct-RM-RB2是艾伦人工智能研究所发布的7组奖励模型之一,用于开发基准测试并与下游PPO/Best-of-N性能关联分析。
下载量 114
发布时间 : 6/2/2025
模型简介
该模型是一个标准的二元分类器,基于Llama-3.1-70B-Instruct微调,用于评估和优化语言模型的输出质量。
模型特点
高性能奖励模型
在Reward Bench 2评估中获得76.1的综合得分,特别在安全性和平局率方面表现优异。
多领域评估能力
覆盖事实性、数学、安全性、聚焦性等多个评估维度,全面评估语言模型输出质量。
开放研究资源
提供多个训练版本和超参数组合,支持奖励模型的深入研究。
模型能力
二元偏好评估
语言模型输出质量评分
多维度性能评估
使用案例
语言模型优化
PPO训练奖励信号
作为强化学习中PPO算法的奖励信号来源
可优化语言模型在安全性、事实性等方面的表现
Best-of-N采样评估
评估和选择语言模型生成的最佳响应
提高模型输出的整体质量
研究基准
奖励模型性能研究
用于奖励模型架构和训练方法的比较研究
推动奖励模型技术的发展
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文