模型简介
模型特点
模型能力
使用案例
🚀 Cohere Labs Command R7B Arabic模型卡片
Cohere Labs Command R7B Arabic是一款专为阿拉伯语(现代标准阿拉伯语方言)和英语优化的70亿参数定制模型的开放权重研究版本。该模型在企业关注的任务上表现出色,如指令遵循、长度控制、检索增强生成(RAG)以及正确语言响应。它还展示了对阿拉伯语言和文化的出色通用知识和理解。
🚀 快速开始
你可以在下载权重之前,在我们托管的Hugging Face Space中试用Cohere Labs Command R7B Arabic。
请从包含此模型必要更改的源仓库安装transformers库。
# pip install 'git+https://github.com/huggingface/transformers.git'
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "CohereLabs/c4ai-command-r7b-arabic-02-2025"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
# 使用c4ai-command-r7b-arabic-02-2025聊天模板格式化消息
messages = [{"role": "user", "content": "مرحبا، كيف حالك؟"}]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
gen_tokens = model.generate(
input_ids,
max_new_tokens=100,
do_sample=True,
temperature=0.3,
)
gen_text = tokenizer.decode(gen_tokens[0])
print(gen_text)
✨ 主要特性
- 多语言支持:支持阿拉伯语、英语等多种语言。
- 任务表现出色:在标准化和可外部验证的阿拉伯语基准测试中表现卓越,如AlGhafa-Native、阿拉伯语MMLU、指令遵循(IFEval阿拉伯语)和RAG(TyDi QA阿拉伯语和FaithEval阿拉伯语)。
- 聊天能力:可配置为对话模式和指令模式,以适应不同的使用场景。
- 长上下文支持:支持128,000个标记的上下文长度。
📦 安装指南
请从包含此模型必要更改的源仓库安装transformers库。
pip install 'git+https://github.com/huggingface/transformers.git'
💻 使用示例
基础用法
# pip install 'git+https://github.com/huggingface/transformers.git'
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "CohereLabs/c4ai-command-r7b-arabic-02-2025"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
# 使用c4ai-command-r7b-arabic-02-2025聊天模板格式化消息
messages = [{"role": "user", "content": "مرحبا، كيف حالك؟"}]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
gen_tokens = model.generate(
input_ids,
max_new_tokens=100,
do_sample=True,
temperature=0.3,
)
gen_text = tokenizer.decode(gen_tokens[0])
print(gen_text)
高级用法 - RAG示例
# 定义对话输入
conversation = [{"role": "user", "content": "اقترح طبقًا يمزج نكهات من عدة دول عربية"}]
# 定义用于检索生成的文档
documents = [
{"heading": "المطبخ العربي: أطباقنا التقليدية", "body": "يشتهر المطبخ العربي بأطباقه الغنية والنكهات الفريدة. في هذا المقال، سنستكشف ..."},
{"heading": "وصفة اليوم: مقلوبة", "body": "المقلوبة هي طبق فلسطيني تقليدي، يُحضر من الأرز واللحم أو الدجاج والخضروات. في وصفتنا اليوم ..."}
]
# 获取RAG提示
input_prompt = tokenizer.apply_chat_template(conversation=conversation,documents=documents, tokenize=False, add_generation_prompt=True, return_tensors="pt")
# 对提示进行分词
input_ids = tokenizer.encode_plus(input_prompt, return_tensors="pt")
你可以像往常一样从这个输入生成文本。
📚 详细文档
模型详情
属性 | 详情 |
---|---|
输入 | 模型仅接受文本输入。 |
输出 | 模型仅生成文本输出。 |
模型架构 | 这是一个自回归语言模型,使用优化的Transformer架构。预训练后,该模型使用监督微调(SFT)和偏好训练,使模型行为符合人类对有用性和安全性的偏好。该模型具有三层滑动窗口注意力(窗口大小4096)和旋转位置编码(ROPE),用于高效的局部上下文建模和相对位置编码。第四层使用全局注意力,无需位置嵌入,可实现整个序列中不受限制的标记交互。 |
支持语言 | 该模型已针对阿拉伯语和英语进行了训练和评估,但训练数据包含其他语言的样本。 |
上下文长度 | 支持128,000个标记的上下文长度。 |
聊天能力
Command R7B Arabic可以根据提供的前言配置为对话模型和指令模型。
- 对话模式:使模型具备交互行为,期望它以对话方式回复,提供介绍性陈述和后续问题,并在适当的地方使用Markdown和LaTeX。它针对交互式体验进行了优化,如聊天机器人。
- 指令模式:使模型提供简洁而全面的响应,默认情况下不使用Markdown / LaTeX。它专为非交互式、任务导向的用例设计,如信息提取、文本摘要、翻译和分类。
多语言RAG能力
Cohere Labs Command R7B Arabic专门针对阿拉伯语和英语的检索增强生成(RAG)任务进行了训练。通过Transformers中的聊天模板支持RAG。使用我们的RAG聊天模板,模型将对话(可选用户提供的系统前言)和文档片段列表作为输入,生成的输出包含带内联引用的响应。
模型性能
Cohere Labs Command R7B Arabic在标准化和可外部验证的阿拉伯语基准测试中表现出色,如AlGhafa-Native、阿拉伯语MMLU、指令遵循(IFEval阿拉伯语)和RAG(TyDi QA阿拉伯语和FaithEval阿拉伯语)。
模型 | C4AI Command R7B Arabic | Command R7B | Gemma 9B | Llama 3.1 8B | Qwen 2.5 7B | Ministral 8B |
---|---|---|---|---|---|---|
平均 | 69.3 | 65.8 | 67.0 | 58.4 | 62.9 | 52.5 |
AlGhafa-Native | 82.2 | 81.5 | 81.3 | 80.1 | 80.2 | 76.6 |
阿拉伯语MMLU | 60.9 | 59.7 | 62.4 | 56.6 | 61.2 | 53.6 |
IFEval AR | 69.0 | 57.8 | 67.8 | 48.4 | 62.4 | 49.3 |
TyDI QA阿拉伯语 | 83.0 | 79.9 | 76.4 | 65.9 | 60.9 | 57.7 |
FaithEval阿拉伯语* | 51.6 | 49.9 | 47.0 | 40.9 | 49.9 | 25.5 |
* FaithEval阿拉伯语是基于著名的RAG基准(https://github.com/SalesforceAIResearch/FaithEval)从英语专业翻译而来。
Cohere Labs Command R7B Arabic在标准化和可外部验证的基准测试中也表现出色,如HuggingFace Open LLM Leaderboard。
C4AI Command R7B Arabic | Command R7B | Gemma 9B | Llama 3.1 8B | Qwen 2.5 7B | Ministral 8B | |
---|---|---|---|---|---|---|
平均 | 31.4 | 31.6 | 32.1 | 28.2 | 35.2 | 22.0 |
IfEval | 83.3 | 77.1 | 74.4 | 78.6 | 75.9 | 59.0 |
BBH | 36.2 | 36.0 | 42.1 | 29.9 | 34.9 | 25.8 |
MuSR | 11.9 | 10.2 | 9.7 | 8.4 | 8.5 | 8.4 |
GPQA | 7.9 | 7.8 | 14.8 | 2.4 | 5.5 | 4.5 |
MMLU Pro | 29.4 | 28.6 | 32.0 | 30.7 | 36.5 | 30.7 |
MATH* | 19.6 | 29.9 | 19.1 | 19.3 | 50.0 | 19.6 |
* 由于原始基准的DMCA下架通知,此排行榜中使用的MATH基准在1月初发生了变化。
🔧 技术细节
该模型是一个自回归语言模型,使用优化的Transformer架构。预训练后,使用监督微调(SFT)和偏好训练,使模型行为符合人类对有用性和安全性的偏好。模型具有三层滑动窗口注意力(窗口大小4096)和旋转位置编码(ROPE),用于高效的局部上下文建模和相对位置编码。第四层使用全局注意力,无需位置嵌入,可实现整个序列中不受限制的标记交互。
📄 许可证
本模型受CC-BY-NC许可协议约束,还需遵守Cohere Lab's Acceptable Use Policy。
引用
@misc{alnumay2025command,
title={Command R7B Arabic: A Small, Enterprise Focused, Multilingual, and Culturally Aware Arabic LLM},
author={Yazeed Alnumay and Alexandre Barbet and Anna Bialas and William Darling and Shaan Desai and Joan Devassy and Kyle Duffy and Stephanie Howe and Olivia Lasche and Justin Lee and Anirudh Shrinivason and Jennifer Tracey},
year={2025},
eprint={2503.14603},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
模型卡片联系方式
如有关于此模型卡片细节的错误或其他问题,请联系labs@cohere.com。
试用聊天
你可以在这里的游乐场中试用Cohere Labs Command R7B Arabic聊天。你也可以在我们专用的Hugging Face Space 这里中使用它。
⚠️ 重要提示
通过提交此表单,即表示你同意许可协议,并确认你提供的信息将按照Cohere的隐私政策进行收集、使用和共享。你将收到有关Cohere Labs和Cohere研究、活动、产品和服务的电子邮件更新。你可以随时取消订阅。
💡 使用建议
文档片段应该是短块,而不是长文档,通常每个块约100 - 400个单词,格式为键值对。键应该是简短的描述性字符串,值可以是文本或半结构化的。你可能会发现,直接在用户消息中包含相关文档与使用文档参数渲染特殊RAG模板效果一样好,甚至更好。RAG模板通常是一个很好的默认选择,非常适合需要引用的用户。我们鼓励用户尝试两种方式,并评估哪种模式最适合他们的用例。



