Deepseek R1 Distill Llama 8B

Deepseek R1 Distill Llama 8B

DeepSeek-R1 是基于 DeepSeek-V3(总计 6710 亿参数,每-token 激活 370 亿参数)构建的第一代推理模型。它结合了大规模强化学习(RL),提升了其思维链和推理能力,在数学、代码以及多步骤推理任务中表现出色。
智力(较弱)
速度(较慢)
输入支持模态
(文本、图片)
是否推理模型
128,000
上下文窗口
128,000
最大输出令牌数
知识截止
定价
- /M tokens
输入
- /M tokens
输出
¥0.29 /M tokens
混合价格
快速简易对比
DeepSeek-Coder-V2
DeepSeek R1 Distill Llama 8B
DeepSeek R1 Distill Qwen 14B
基础参数
GPT-4.1的技术参数
参数数量
8,030.0M
上下文长度
128.00k tokens
训练数据截止
开源分类
Open Weights (Permissive License)
多模态支持
文本
吞吐量
0
发布日期
2025-01-20
响应速度
54.114,002 tokens/s
基准测试得分
以下是claude-monet在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
大语言模型智能水平
3400
编码指数
AI模型在编码任务上的能力表现的指标
1757
数学指数
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
-
MMLU Pro
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
54.3
GPQA
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
30.2
HLE
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
4.2
LiveCodeBench
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
23.3
SciCode
模型在科学计算或特定科学领域的代码生成方面的能力
11.9
HumanEval
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
83.5
Math 500 评分
前500道更大型、更知名的数学基准测试评分
85.3
AIME 评分
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
33.3