
Deepseek R1 Distill Qwen 1.5B
DeepSeek-R1 是基于 DeepSeek-V3(总参数量为 6710 亿,每 token 激活 370 亿参数)构建的第一代推理模型。它结合了大规模强化学习(RL),以提升其思维链和推理能力,在数学、代码和多步骤推理任务中表现出色。
智力(弱)
速度(慢)
输入支持模态
否
是否推理模型
128,000
上下文窗口
128,000
最大输出令牌数
-
知识截止
定价
- /M tokens
输入
- /M tokens
输出
- /M tokens
混合价格
快速简易对比
DeepSeek R1 (Jan '25)
¥0.56
DeepSeek V3 (Dec '24)
¥0.27
DeepSeek-V2.5
¥0.14
基础参数
DeepSeek R1 Distill Qwen 1.5B的技术参数
参数数量
1,780.0M
上下文长度
128.00k tokens
训练数据截止
开源分类
Open Weights (Permissive License)
多模态支持
文本
吞吐量
0
发布日期
2025-01-20
响应速度
0 tokens/s
基准测试得分
以下是DeepSeek R1 Distill Qwen 1.5B在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
19.17
大语言模型智能水平
编码指数
6.8
AI模型在编码任务上的能力表现的指标
数学指数
43.2
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
MMLU Pro
26.9
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
GPQA
9.8
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
HLE
3.3
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
LiveCodeBench
7
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
SciCode
6.6
模型在科学计算或特定科学领域的代码生成方面的能力
HumanEval
45.4
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
Math 500 评分
68.7
前500道更大型、更知名的数学基准测试评分
AIME 评分
17.7
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
精选推荐AI模型
GLM 4.5
chatglm

¥0.43
输入tokens/百万
¥1.01
输出tokens/百万
131k
上下文长度
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
输入tokens/百万
¥2.16
输出tokens/百万
1M
上下文长度
Qwen2.5 Coder Instruct 32B
alibaba

¥0.65
输入tokens/百万
¥0.65
输出tokens/百万
131k
上下文长度
Deepseek R1
deepseek

¥3.96
输入tokens/百万
¥15.77
输出tokens/百万
128k
上下文长度
Gemini 2.0 Flash (experimental)
google

¥0.72
输入tokens/百万
¥2.88
输出tokens/百万
1M
上下文长度
Gemini 2.0 Pro Experimental (Feb '25)
google

-
输入tokens/百万
-
输出tokens/百万
2M
上下文长度
Llama 3.2 Instruct 11B (Vision)
meta

¥0.43
输入tokens/百万
¥0.43
输出tokens/百万
128k
上下文长度
O1 Preview
openai

¥108
输入tokens/百万
¥432
输出tokens/百万
128k
上下文长度