library_name: transformers
language:
- 阿拉伯语
- 捷克语
- 德语
- 英语
- 西班牙语
- 法语
- 印地语
- 意大利语
- 日语
- 韩语
- 荷兰语
- 波兰语
- 葡萄牙语
- 罗马尼亚语
- 俄语
- 瑞典语
- 乌尔都语
- 中文
tags:
- falcon-h1
license: other
license_name: falcon-llm-license
license_link: https://falconllm.tii.ae/falcon-terms-and-conditions.html
目录
- 摘要
- 模型详情
- 训练详情
- 使用方法
- 评估
- 引用
摘要
模型详情
模型描述
- 开发机构: https://www.tii.ae
- 模型类型: 因果仅解码器架构
- 架构: 混合Transformer + Mamba架构
- 支持语言: 英语、多语种
- 许可证: Falcon-LLM许可证
训练详情
有关本模型训练协议的更多细节,请参阅Falcon-H1技术博客。
使用方法
当前可使用Hugging Face的transformers
、vLLM
或我们定制的llama.cpp
分支库来调用该模型。
推理
确保安装最新版transformers
或vllm
,必要时从源码安装:
pip install git+https://github.com/huggingface/transformers.git
vLLM官方文档提供了从源码构建的详细指南。
🤗 transformers
参考以下代码片段使用🤗 transformers运行H1模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM
对于vLLM,执行以下命令启动服务:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
我们正在将架构集成至llama.cpp
主库,当前可使用定制分支库:https://github.com/tiiuae/llama.cpp-Falcon-H1
安装方法与原生llama.cpp
相同。
评估
Falcon-H1系列在各类任务(包括推理任务)中表现优异。
任务 |
Falcon-H1-1.5B-deep |
Qwen3-1.7B |
Qwen2.5-1.5B |
Gemma3-1B |
Llama3.2-1B |
Falcon3-1B |
通用能力 |
|
|
|
|
|
|
BBH |
52.37 |
43.05 |
40.55 |
30.26 |
30.72 |
35.24 |
MMLU |
66.29 |
62.46 |
61.13 |
26.33 |
32.39 |
45.14 |
ARC-C |
55.89 |
55.72 |
54.27 |
39.33 |
39.42 |
47.87 |
HellaSwag |
69.72 |
67.09 |
67.86 |
62.94 |
65.73 |
62.3 |
Winogrande |
67.09 |
66.3 |
64.56 |
62.59 |
62.75 |
61.17 |
数学 |
|
|
|
|
|
|
GSM8k |
68.69 |
70.74 |
63.0 |
2.2 |
7.05 |
34.95 |
MATH lvl5 |
24.77 |
16.39 |
8.84 |
1.21 |
0.98 |
3.4 |
科学 |
|
|
|
|
|
|
GPQA |
32.8 |
29.45 |
28.36 |
24.66 |
23.57 |
27.85 |
MMLU-Pro |
41.07 |
33.81 |
28.72 |
11.31 |
11.8 |
16.11 |
MMLU-stem |
67.43 |
61.53 |
54.93 |
27.59 |
30.19 |
40.06 |
编程 |
|
|
|
|
|
|
HumanEval |
52.44 |
67.68 |
35.37 |
6.71 |
18.9 |
10.37 |
HumanEval+ |
46.34 |
60.98 |
29.27 |
5.49 |
16.46 |
9.15 |
MBPP |
70.9 |
67.72 |
60.05 |
12.7 |
35.98 |
12.43 |
MBPP+ |
60.32 |
58.99 |
49.47 |
9.52 |
29.89 |
9.52 |
详细基准测试请参阅发布博客。
实用链接
引用
若Falcon-H1系列模型对您的研究有所帮助,欢迎引用:
@misc{tiifalconh1,
title = {Falcon-H1:重新定义效率与性能的混合头语言模型家族},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {Falcon-LLM团队},
month = {5月},
year = {2025}
}