Qwen3 32B (Reasoning)
Qwen3 32B (Reasoning)
Qwen3-32B是阿里巴巴Qwen3系列的大型语言模型。它具有328亿个参数,128k令牌上下文窗口,支持119种语言,以及允许在深度推理和快速响应之间切换的混合思维模式。它在推理、指令遵循和代理能力方面表现出色。
智力(中等)
速度(较慢)
输入支持模态
(文本、图片)
否
是否推理模型
128,000
上下文窗口
128,000
最大输出令牌数
知识截止
定价
¥0.72 /M tokens
输入
¥2.16 /M tokens
输出
¥18.9 /M tokens
混合价格
快速简易对比
Qwen Turbo
Qwen2.5 Turbo
Qwen2.5 Coder Instruct 7B
基础参数
GPT-4.1的技术参数
参数数量
32,800.0M
上下文长度
128.00k tokens
训练数据截止
开源分类
Open Weights (Permissive License)
多模态支持
文本
吞吐量
327
发布日期
2025-04-28
响应速度
63.50,536 tokens/s
基准测试得分
以下是claude-monet在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
大语言模型智能水平
5916
编码指数
AI模型在编码任务上的能力表现的指标
4501
数学指数
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
-
MMLU Pro
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
79.8
GPQA
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
66.8
HLE
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
8.3
LiveCodeBench
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
54.6
SciCode
模型在科学计算或特定科学领域的代码生成方面的能力
35.4
HumanEval
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
-
Math 500 评分
前500道更大型、更知名的数学基准测试评分
96.1
AIME 评分
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
80.7
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文