library_name: transformers
tags:
- bitnet
- falcon-e
license: other
license_name: falcon-llm-license
license_link: https://falconllm.tii.ae/falcon-terms-and-conditions.html

目录
- 摘要
- 模型详情
- 训练详情
- 使用指南
- 评估结果
- 引用方式
摘要
模型详情
模型描述
- 开发机构: https://www.tii.ae
- 模型类型: 因果解码器架构/基础版本
- 网络结构: 纯Transformer架构 - 1.58比特量化版本
- 支持语言: 英语
- 许可协议: Falcon-LLM许可证
训练详情
关于本模型训练细节的完整说明,请参阅Falcon-E技术博客。
使用指南
当前可通过Hugging Face transformers库或BitNet库使用本模型。根据使用场景不同,我们提供多种交互方式。Falcon-E系列每个模型包含三个变体:BitNet量化模型、用于微调的预量化检查点,以及BitNet模型的bfloat16
版本。
推理应用
🤗 transformers库
如需运行BitNet检查点的推理:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-E-1B-Base"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
).to("cuda")
如需使用标准bfloat16
版本:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "tiiuae/Falcon-E-1B-Base"
revision = "bfloat16"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
revision=revision,
).to("cuda")
BitNet库
git clone https://github.com/microsoft/BitNet && cd BitNet
pip install -r requirements.txt
python setup_env.py --hf-repo tiiuae/Falcon-E-1B-Base -q i2_s
python run_inference.py -m models/Falcon-E-1B-Base/ggml-model-i2_s.gguf -p "You are a helpful assistant" -cnv
微调指南
进行模型微调时,请加载prequantized
版本模型并使用onebitllms
工具包:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from trl import SFTTrainer
+ from onebitllms import replace_linear_with_bitnet_linear, quantize_to_1bit
model_id = "tiiuae/Falcon-E-1B-Base"
tokenizer = AutoTokenizer.from_pretrained(model_id, revision="prequantized")
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
+ revision="prequantized"
)
+ model = replace_linear_with_bitnet_linear(model)
trainer = SFTTrainer(
model,
...
)
trainer.train()
+ quantize_to_1bit(output_directory)
评估结果
下表展示我们在内部测试管道中的基准表现:
注:评估结果为原Hugging Face排行榜v2任务的标准化分数
10亿参数及以下模型
模型名称 |
参数量 |
显存占用 |
IFEVAL |
高难数学 |
GPQA |
MuSR |
BBH |
MMLU-Pro |
平均分 |
Qwen-2.5-0.5B |
5亿 |
1GB |
16.27 |
3.93 |
0.0 |
2.08 |
6.95 |
10.06 |
6.55 |
SmolLM2-360M |
3.6亿 |
720MB |
21.15 |
1.21 |
0.0 |
7.73 |
5.54 |
1.88 |
6.25 |
Qwen-2.5-1.5B |
15亿 |
3.1GB |
26.74 |
9.14 |
16.66 |
5.27 |
20.61 |
4.7 |
13.85 |
Llama-3.2-1B |
12.4亿 |
2.47GB |
14.78 |
1.21 |
4.37 |
2.56 |
2.26 |
0 |
4.2 |
SmolLM2-1.7B |
17亿 |
3.4GB |
24.4 |
2.64 |
9.3 |
4.6 |
12.64 |
3.91 |
9.58 |
Falcon-3-1B-Base |
15亿 |
3GB |
24.28 |
3.32 |
11.34 |
9.71 |
6.76 |
3.91 |
9.89 |
Hymba-1.5B-Base |
15亿 |
3GB |
22.95 |
1.36 |
7.69 |
5.18 |
10.25 |
0.78 |
8.04 |
Falcon-E-1B-Base |
18亿 |
635MB |
32.9 |
10.97 |
2.8 |
3.65 |
12.28 |
17.82 |
13.40 |
30亿参数规模模型
模型名称 |
参数量 |
显存占用 |
IFEVAL |
高难数学 |
GPQA |
MuSR |
BBH |
MMLU-Pro |
平均分 |
Falcon-3-3B-Base |
30亿 |
6.46GB |
15.74 |
11.78 |
21.58 |
6.27 |
18.09 |
6.26 |
15.74 |
Qwen2.5-3B |
30亿 |
6.17GB |
26.9 |
14.8 |
24.3 |
11.76 |
24.48 |
6.38 |
18.1 |
Falcon-E-3B-Base |
30亿 |
999MB |
36.67 |
13.45 |
8.67 |
4.14 |
19.83 |
27.16 |
18.32 |
指令微调模型表现如下:
10亿参数及以下模型
模型名称 |
参数量 |
显存占用 |
IFEVAL |
高难数学 |
GPQA |
MuSR |
BBH |
MMLU-Pro |
平均分 |
Qwen-2.5-0.5B-Instruct |
5亿 |
1GB |
30.71 |
0 |
8.43 |
0.94 |
7.75 |
0 |
6.59 |
SmolLM2-360M-Instruct |
3.6亿 |
720MB |
38.42 |
1.51 |
4.17 |
2.77 |
1.3 |
0.67 |
8.14 |
Qwen-2.5-1.5B-Instruct |
15亿 |
3.1GB |
44.76 |
22.05 |
19.81 |
3.19 |
19.99 |
0.78 |
18.43 |
SmolLM2-1.7B |
17亿 |
3.4GB |
53.68 |
5.82 |
10.92 |
4.1 |
11.71 |
0 |
15.02 |
Falcon-3-1B-Instruct |
15亿 |
3GB |
55.57 |
6.34 |
12.96 |
10.56 |
9.32 |
2.24 |
16.16 |
Hymba-1.5B-Instruct |
15亿 |
3GB |
60.09 |
2.72 |
4.59 |
1.05 |
11.56 |
5.515 |
14.19 |
Falcon-E-1B-Instruct |
18亿 |
635MB |
54.35 |
9.12 |
16.5 |
2.51 |
19.42 |
9.64 |
18.59 |
30亿参数规模模型
模型名称 |
参数量 |
显存占用 |
IFEVAL |
高难数学 |
GPQA |
MuSR |
BBH |
MMLU-Pro |
平均分 |
Falcon-3-3B-Instruct |
30亿 |
6.46GB |
69.77 |
25 |
26.29 |
11.13 |
22.28 |
5.15 |
26.6 |
Qwen2.5-3B-Instruct |
30亿 |
6.17GB |
64.75 |
36.78 |
25.8 |
7.57 |
25.05 |
3.02 |
27.16 |
Falcon-E-3B-Instruct |
30亿 |
999MB |
60.97 |
15.3 |
23.59 |
2.12 |
26.45 |
7.45 |
22.65 |
实用链接
引用方式
若Falcon-E系列模型对您的研究有所帮助,请引用我们的工作:
@misc{tiionebitllms,
title = {Falcon-E:强大、通用且可微调的1.58比特语言模型系列},
author = {Falcon-LLM团队},
month = {四月},
url = {https://falcon-lm.github.io/blog/falcon-edge},
year = {2025}
}