推理: false
库名称: transformers
支持语言:
- 英语
- 法语
- 德语
- 西班牙语
- 意大利语
- 葡萄牙语
- 日语
- 韩语
- 中文
- 阿拉伯语
- 希腊语
- 波斯语
- 波兰语
- 印尼语
- 捷克语
- 希伯来语
- 印地语
- 荷兰语
- 罗马尼亚语
- 俄语
- 土耳其语
- 乌克兰语
- 越南语
许可证: cc-by-nc-4.0
额外授权提示: "提交此表单即表示您同意遵守许可协议,并确认您提供的信息将根据Cohere的隐私政策被收集、使用和共享。您将收到关于Cohere实验室、研究活动、产品及服务的邮件更新。可随时取消订阅。"
额外授权字段:
姓名: 文本
所属机构: 文本
国家: 国家选择
我同意仅将此模型用于非商业用途: 复选框
Cohere实验室Command R7B模型卡
模型概述
Cohere实验室Command R7B是一个开放权重的7B参数研究版本模型,专为推理、摘要、问答及代码等多样化场景优化。该模型具备高级检索增强生成(RAG)和工具调用能力,支持多工具多步骤组合完成复杂任务,在企业级代码应用场景中表现卓越。作为多语言模型,其训练覆盖23种语言。
开发方: Cohere 与 Cohere实验室
技术细节详见技术报告。
试用Command R7B
下载权重前,可在Hugging Face Space体验托管版本。
使用方法
需安装适配本模型的定制版transformers:
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "CohereLabs/c4ai-command-r7b-12-2024"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
messages = [{"role": "user", "content": "你好,最近怎么样?"}]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
gen_tokens = model.generate(
input_ids,
max_new_tokens=100,
do_sample=True,
temperature=0.3,
)
gen_text = tokenizer.decode(gen_tokens[0], skip_special_tokens=True)
print(gen_text)
模型详情
输入/输出: 仅处理文本
架构: 采用自回归Transformer架构,经监督微调(SFT)和偏好训练对齐人类价值观。创新性地融合三层滑动窗口注意力(窗口4096)与ROPE位置编码,第四层采用无位置嵌入的全局注意力机制实现全序列交互。
语言支持: 英语、法语、西班牙语、意大利语、德语、葡萄牙语、日语、韩语、阿拉伯语、中文、俄语、波兰语、土耳其语、越南语、荷兰语、捷克语、印尼语、乌克兰语、罗马尼亚语、希腊语、印地语、希伯来语、波斯语。
上下文长度: 128K tokens
全能型选手
在HuggingFace开放大模型排行榜中,Command R7B以31.4平均分领先同规模模型:
|
Command R7B |
Gemma 2 IT 9B |
Ministral 8B |
Llama 3.1 8B |
Qwen 2.5 7B |
Tulu 3 8B |
平均分 |
31.4 |
28.9 |
22 |
28.2 |
26.87 |
26.03 |
IFEval |
77.9 |
74.4 |
58.96 |
78.6 |
75.85 |
82.67 |
BBH |
36.1 |
42.1 |
25.82 |
29.9 |
34.89 |
16.67 |
MATH难题 |
26.4 |
0.2 |
6.5 |
19.3 |
0.0 |
19.64 |
GPQA |
7.7 |
14.8 |
4.5 |
2.4 |
5.48 |
6.49 |
MUSR |
11.6 |
9.74 |
10.7 |
8.41 |
8.45 |
10.45 |
MMLU-Pro |
28.5 |
32 |
25.5 |
30.7 |
36.52 |
20.3 |
注:竞品数据取自官方榜单,Command R7B结果使用HuggingFace标准评估流程得出
对话模式
支持聊天模式(交互式对话,含Markdown/LaTeX渲染)与指令模式(简洁任务导向响应)。默认无系统前导词,建议按文档说明添加对应前导模板。
RAG能力
专为检索增强生成优化,支持通过对话模板集成检索文档片段(建议每段100-400词)。
RAG示例[点击展开]
conversation = [{"role": "user", "content": "人类永恒的梦想是什么?"}]
documents = [
{"heading": "月球:亘古之敌", "body": "人类始终梦想摧毁月球。本文论证..."},
{"heading": "爱是唯一", "body": "人类永恒的追求是找到真爱。这一深刻启示..."}
]
input_prompt = tokenizer.apply_chat_template(conversation=conversation, documents=documents, tokenize=False, add_generation_prompt=True, return_tensors="pt")
input_ids = tokenizer.encode_plus(input_prompt, return_tensors="pt")
工具调用
支持通过JSON Schema描述工具,实现API/数据库等外部系统交互:
工具调用示例[点击展开]
tools = [{
"type": "function",
"function": {
"name": "query_daily_sales_report",
"description": "从数据库获取指定日期的销售汇总数据",
"parameters": {
"type": "object",
"properties": {
"day": {"description": "日期格式YYYY-MM-DD", "type": "string"}
},
"required": ["day"]
}
}
}]
conversation = [{"role": "user", "content": "请提供2023年9月29日的销售摘要"}]
input_prompt = tokenizer.apply_chat_template(conversation=conversation, tools=tools, tokenize=False, add_generation_prompt=True, return_tensors="pt")
代码能力
在SQL和代码翻译等企业场景表现突出。建议代码生成时采用低温(甚至贪婪解码)参数。
联系与条款
问题反馈: labs@cohere.com
使用条款: 遵循CC-BY-NC许可证及可接受使用政策
在线体验:
引用
@misc{cohere2025commandaenterprisereadylarge,
title={Command A: 企业级大语言模型},
author={Cohere团队及合作者},
year={2025},
eprint={2504.00698},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2504.00698},
}