library_name: transformers
language:
- 阿拉伯语
- 捷克语
- 德语
- 英语
- 西班牙语
- 法语
- 印地语
- 意大利语
- 日语
- 韩语
- 荷兰语
- 波兰语
- 葡萄牙语
- 罗马尼亚语
- 俄语
- 瑞典语
- 乌尔都语
- 中文
tags:
- 猎鹰H1模型
license: other
license_name: 猎鹰大模型许可证
license_link: https://falconllm.tii.ae/falcon-terms-and-conditions.html
目录
- 摘要
- 模型详情
- 训练细节
- 使用指南
- 性能评估
- 引用方式
摘要
模型详情
模型描述
- 开发机构: 阿联酋技术创新研究院
- 模型类型: 因果解码架构
- 架构特点: 混合Transformer与Mamba架构
- 支持语言: 英语、多语种
- 许可协议: 猎鹰大模型许可证
训练细节
本模型的完整训练方案详见猎鹰H1技术博客。
使用指南
当前可通过Hugging Face的transformers
库、vLLM
或我们定制的llama.cpp
分支版本来使用本模型。
推理部署
请确保安装最新版transformers
或vllm
,推荐从源码安装:
pip install git+https://github.com/huggingface/transformers.git
vLLM官方文档提供了详细的源码编译指南。
🤗 transformers
使用以下代码片段运行H1系列模型:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-H1-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
vLLM部署
通过以下命令启动vLLM服务:
# pip install vllm
vllm serve tiiuae/Falcon-H1-1B-Instruct --tensor-parallel-size 2 --data-parallel-size 1
llama.cpp
定制版
我们正在将架构整合至官方llama.cpp
库,目前可使用定制分支版本:llama.cpp-Falcon-H1
安装方式与原生llama.cpp
相同。
性能评估
猎鹰H1系列在各类任务中表现卓越,尤其在推理任务中优势显著。
任务类别 |
H1-3B |
千问3-4B |
千问2.5-3B |
Gemma3-4B |
Llama3.2-3B |
猎鹰3-3B |
通用能力 |
|
|
|
|
|
|
BBH |
53.17 |
56.88 |
46.4 |
40.41 |
39.45 |
44.02 |
MMLU |
68.39 |
72.92 |
65.56 |
59.41 |
55.94 |
56.77 |
ARC-C |
61.35 |
64.33 |
56.57 |
58.36 |
51.02 |
55.12 |
HellaSwag |
73.85 |
75.74 |
74.6 |
77.62 |
76.39 |
67.13 |
Winogrande |
68.11 |
72.3 |
71.03 |
72.77 |
72.22 |
65.11 |
数学能力 |
|
|
|
|
|
|
GSM8k |
68.31 |
81.65 |
74.6 |
37.6 |
27.82 |
64.67 |
MATH lvl5 |
25.83 |
24.47 |
16.09 |
6.95 |
1.74 |
11.56 |
科学能力 |
|
|
|
|
|
|
GPQA |
32.63 |
34.9 |
28.44 |
29.78 |
28.78 |
29.78 |
MMLU-Pro |
40.58 |
46.18 |
32.12 |
28.34 |
25.08 |
29.03 |
MMLU-stem |
69.55 |
75.58 |
62.23 |
51.7 |
47.67 |
55.34 |
编程能力 |
|
|
|
|
|
|
HumanEval |
59.15 |
74.39 |
42.68 |
33.54 |
29.27 |
36.59 |
HumanEval+ |
53.66 |
68.9 |
35.37 |
28.05 |
26.22 |
31.71 |
MBPP |
71.43 |
74.6 |
59.52 |
60.05 |
48.94 |
51.85 |
MBPP+ |
57.94 |
63.76 |
50.53 |
51.32 |
39.42 |
42.06 |
完整评测结果请参阅发布博客。
相关资源
引用方式
若猎鹰H1系列模型对您的研究有所帮助,请引用以下文献:
@misc{tiifalconh1,
title = {猎鹰H1:重新定义效率与性能的混合架构语言模型家族},
url = {https://falcon-lm.github.io/blog/falcon-h1},
author = {猎鹰大模型团队},
month = {5月},
year = {2025}
}