许可证:apache-2.0
语言:
- 英文
- 中文
基础模型:
- prithivMLmods/Pegasus-Opus-14B-Exp
任务标签:文本生成
库名称:transformers
标签:
- 文本生成推理
- trl
- sft
- limo
模型索引:
- 名称:Condor-Opus-14B-Exp
结果:
- 任务:
类型:文本生成
名称:文本生成
数据集:
名称:IFEval(0-Shot)
类型:wis-k/instruction-following-eval
分割:训练集
参数:
num_few_shot: 0
指标:
- 类型:inst_level_strict_acc 和 prompt_level_strict_acc
值:40.43
名称:平均准确率
来源:
url:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FCondor-Opus-14B-Exp
名称:Open LLM 排行榜
- 任务:
类型:文本生成
名称:文本生成
数据集:
名称:BBH(3-Shot)
类型:SaylorTwift/bbh
分割:测试集
参数:
num_few_shot: 3
指标:
- 类型:acc_norm
值:44.08
名称:归一化准确率
来源:
url:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FCondor-Opus-14B-Exp
名称:Open LLM 排行榜
- 任务:
类型:文本生成
名称:文本生成
数据集:
名称:MATH Lvl 5(4-Shot)
类型:lighteval/MATH-Hard
分割:测试集
参数:
num_few_shot: 4
指标:
- 类型:exact_match
值:52.27
名称:精确匹配
来源:
url:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FCondor-Opus-14B-Exp
名称:Open LLM 排行榜
- 任务:
类型:文本生成
名称:文本生成
数据集:
名称:GPQA(0-shot)
类型:Idavidrein/gpqa
分割:训练集
参数:
num_few_shot: 0
指标:
- 类型:acc_norm
值:18.9
名称:归一化准确率
来源:
url:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FCondor-Opus-14B-Exp
名称:Open LLM 排行榜
- 任务:
类型:文本生成
名称:文本生成
数据集:
名称:MuSR(0-shot)
类型:TAUR-Lab/MuSR
参数:
num_few_shot: 0
指标:
- 类型:acc_norm
值:25.42
名称:归一化准确率
来源:
url:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FCondor-Opus-14B-Exp
名称:Open LLM 排行榜
- 任务:
类型:文本生成
名称:文本生成
数据集:
名称:MMLU-PRO(5-shot)
类型:TIGER-Lab/MMLU-Pro
配置:main
分割:测试集
参数:
num_few_shot: 5
指标:
- 类型:acc
值:44.6
名称:准确率
来源:
url:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FCondor-Opus-14B-Exp
名称:Open LLM 排行榜

Condor-Opus-14B-Exp
Condor-Opus-14B-Exp 基于 Qwen 2.5 14B 模态架构设计,旨在增强 14B 参数模型的推理能力。该模型针对通用推理和回答进行了优化,在上下文理解、逻辑推理和多步骤问题解决方面表现出色。通过长链思维推理模型和专用数据集的微调,提升了理解能力、结构化响应和对话智能。
关键改进
- 增强的通用知识:模型提供跨领域的广泛知识,提高了准确回答问题并生成连贯响应的能力。
- 改进的指令遵循:在理解和遵循复杂指令、生成结构化响应以及保持长时间交互的连贯性方面取得了显著进展。
- 多功能适应性:对多样化提示更具弹性,提升了处理广泛主题和对话风格的能力,包括开放式和结构化查询。
- 长上下文支持:支持高达 128K 的输入上下文标记,并能生成高达 8K 标记的单次输出,适合生成详细响应。
- 多语言能力:支持超过 29 种语言,包括英语、中文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
快速开始使用 transformers
以下是一个使用 apply_chat_template
的代码片段,展示如何加载分词器和模型并生成内容:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Condor-Opus-14B-Exp"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "通用人工智能的关键原则是什么?"
messages = [
{"role": "system", "content": "你是一个能够回答广泛问题的有用助手。"},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
预期用途
-
通用推理:
适用于广泛的逻辑推理、回答多样化问题和解决通用知识问题。
-
教育和信息辅助:
适合为学生、教育工作者和普通用户提供解释、摘要和研究性回答。
-
对话式 AI 和聊天机器人:
适用于构建需要上下文理解和动态响应生成的智能对话代理。
-
多语言应用:
支持全球通信、翻译和多语言内容生成。
-
结构化数据处理:
能够分析和生成结构化输出,如表格和 JSON,适用于数据科学和自动化。
-
长文本内容生成:
可以生成扩展响应,包括文章、报告和指南,保持大篇幅文本输出的连贯性。
局限性
-
硬件要求:
由于参数规模大且支持长上下文,需要高内存 GPU 或 TPU。
-
响应中的潜在偏见:
虽然设计为中立,但输出仍可能反映训练数据中的偏见。
-
创意任务中的不一致输出:
在故事讲述和高度主观主题中可能产生不一致的结果。
-
对现实世界的有限认知:
无法获取训练截止日期之后的实时事件信息。
-
长文本输出中的错误传播:
早期响应中的小错误可能影响长文本输出的整体连贯性。
-
提示敏感性:
响应的有效性可能取决于输入提示的结构化程度。
详细结果可查看此处!
汇总结果可查看此处!
指标 |
值(%) |
平均 |
37.62 |
IFEval(0-Shot) |
40.43 |
BBH(3-Shot) |
44.08 |
MATH Lvl 5(4-Shot) |
52.27 |
GPQA(0-shot) |
18.90 |
MuSR(0-shot) |
25.42 |
MMLU-PRO(5-shot) |
44.60 |