语言:
- 英语
- 法语
- 西班牙语
- 俄语
- 中文
- 日语
- 波斯语
- 代码
许可证: MIT
库名称: transformers
标签:
- 流畅语言模型
- 流畅
- 核心数
- 指令
- 训练
- 数学
- 角色扮演
- 推理
- 蝾螈
- 无懒惰
- 阿吉拉
- 千问2
数据集:
- 流畅集/超集
- 流畅集/超思维
- 流畅集/推理1-1k
- 流畅集/数学500综合
推理: 真
流水线标签: 文本生成
模型索引:
- 名称: 流畅语言模型-核心数
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: IFEval (零样本)
类型: HuggingFaceH4/ifeval
参数:
少量样本数: 0
指标:
- 类型: 实例级严格准确率和提示级严格准确率
值: 80.9
名称: 严格准确率
来源:
网址: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=fluently-lm/FluentlyLM-Prinum
名称: 开放大模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: BBH (三样本)
类型: BBH
参数:
少量样本数: 3
指标:
- 类型: 标准化准确率
值: 59.48
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=fluently-lm/FluentlyLM-Prinum
名称: 开放大模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: 数学五级 (四样本)
类型: hendrycks/competition_math
参数:
少量样本数: 4
指标:
- 类型: 精确匹配
值: 54.0
名称: 精确匹配
来源:
网址: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=fluently-lm/FluentlyLM-Prinum
名称: 开放大模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GPQA (零样本)
类型: Idavidrein/gpqa
参数:
少量样本数: 0
指标:
- 类型: 标准化准确率
值: 18.23
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=fluently-lm/FluentlyLM-Prinum
名称: 开放大模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MuSR (零样本)
类型: TAUR-Lab/MuSR
参数:
少量样本数: 0
指标:
- 类型: 标准化准确率
值: 17.26
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=fluently-lm/FluentlyLM-Prinum
名称: 开放大模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU-PRO (五样本)
类型: TIGER-Lab/MMLU-Pro
配置: 主要
分割: 测试
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 53.42
名称: 准确率
来源:
网址: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=fluently-lm/FluentlyLM-Prinum
名称: 开放大模型排行榜
流畅语言模型核心数 (32B版本)
隆重推出流畅语言模型项目的首个独立模型!我们历时数月,尝试多种方法,最终找到了最优方案。
模型详情
模型描述
- 开发团队: @fluently-lm
- 模型类型: 因果语言模型(QwenForCausalLM, LM Transformer)
- 参数量: 32.5B
- 非嵌入参数量: 31.0B
- 层数: 64
- 注意力头数(GQA): Q头40个,KV头8个
- 上下文长度: 完整131,072个标记
- 支持语言: 英语、法语、西班牙语、俄语、中文、日语、波斯语*(官方支持)*
- 许可证: MIT
快速开始
以下代码片段展示如何使用apply_chat_template加载分词器和模型,并生成内容。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "fluently-lm/FluentlyLM-Prinum"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "编写快速排序算法。"
messages = [
{"role": "system", "content": "你是由流畅项目创建的FluentlyLM。你是一个乐于助人的助手。"},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
GGUF使用
您也可以通过GGUF文件在本地使用我们的模型,我们提供多个下载仓库:
模型配方

发展历程
🏆 在开放大模型排行榜中位列第12名 (2025年2月21日)

特别鸣谢
🤗 我们衷心感谢以下开源资源、技术和支持:Unsloth AI、Axolotl AI、Argilla、阿里云:千问、NVIDIA和NousResearch。
详细结果请参见此处
指标 |
值 |
平均得分 |
47.22 |
IFEval (零样本) |
80.90 |
BBH (三样本) |
59.48 |
数学五级 (四样本) |
54.00 |
GPQA (零样本) |
18.23 |
MuSR (零样本) |
17.26 |
MMLU-PRO (五样本) |
53.42 |