Llama 3.1 Nemotron Ultra 253B V1 (Reasoning)

Llama 3.1 Nemotron Ultra 253B V1 (Reasoning)

Meta Llama 3.1 405B Instruct的253B参数衍生物,由NVIDIA使用神经架构搜索(NAS)和垂直压缩开发。它经历了多阶段的岗位培训(数学、代码、推理、聊天、工具调用的SFT;带有GRPO的RL),以增强推理和指令
智力(中等)
速度(慢)
输入支持模态
(文本、图片)
是否推理模型
128,000
上下文窗口
131,072
最大输出令牌数
2023-12-01
知识截止
定价
- /M tokens
输入
- /M tokens
输出
¥6.48 /M tokens
混合价格
快速简易对比
Llama 3.1 Nemotron Instruct 70B
Llama 3.1 Nemotron Ultra 253B v1 (Reasoning)
Llama 3.3 Nemotron Super 49B v1 (Reasoning)
基础参数
GPT-4.1的技术参数
参数数量
253,000.0M
上下文长度
128.00k tokens
训练数据截止
2023-12-01
开源分类
Open Weights (Permissive License)
多模态支持
文本
吞吐量
发布日期
2025-04-07
响应速度
41.972,015 tokens/s
基准测试得分
以下是claude-monet在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
大语言模型智能水平
6082
编码指数
AI模型在编码任务上的能力表现的指标
4942
数学指数
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
-
MMLU Pro
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
82.5
GPQA
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
72.8
HLE
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
8.1
LiveCodeBench
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
64.1
SciCode
模型在科学计算或特定科学领域的代码生成方面的能力
34.7
HumanEval
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
-
Math 500 评分
前500道更大型、更知名的数学基准测试评分
95.2
AIME 评分
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
74.7