库名称:transformers
标签:
- chocolatine
- dpo
许可证:apache-2.0
数据集:
- jpacifico/french-orca-dpo-pairs-revised
语言:
- 法语
- 英语
Chocolatine-2-14B-Instruct-v2.0.3
对合并模型 jpacifico/Chocolatine-2-merged-qwen25arch(基于Qwen-2.5-14B架构)进行了DPO微调,使用了 jpacifico/french-orca-dpo-pairs-revised RLHF数据集。
法语训练还提升了模型的整体能力。
[!提示] 上下文窗口:最高支持128K tokens
法语LLM排行榜
[更新于2025年4月25日]
在法国政府 LLM排行榜 的所有类别中排名前三。

法语MT-Bench测试
Chocolatine-2在 MT-Bench-French 测试中超越了其先前版本及其基础架构Qwen-2.5模型,测试使用了 multilingual-mt-bench 和GPT-4-Turbo作为LLM评判。
我的目标是让模型在法语上达到GPT-4o-mini的性能,根据这一基准测试,此版本已接近OpenAI模型的性能。
########## 第一轮 ##########
得分
模型 轮次
gpt-4o-mini 1 9.287500
Chocolatine-2-14B-Instruct-v2.0.3 1 9.112500
Qwen2.5-14B-Instruct 1 8.887500
Chocolatine-14B-Instruct-DPO-v1.2 1 8.612500
Phi-3.5-mini-instruct 1 8.525000
Chocolatine-3B-Instruct-DPO-v1.2 1 8.375000
DeepSeek-R1-Distill-Qwen-14B 1 8.375000
phi-4 1 8.300000
Phi-3-medium-4k-instruct 1 8.225000
gpt-3.5-turbo 1 8.137500
Chocolatine-3B-Instruct-DPO-Revised 1 7.987500
Meta-Llama-3.1-8B-Instruct 1 7.050000
vigostral-7b-chat 1 6.787500
Mistral-7B-Instruct-v0.3 1 6.750000
gemma-2-2b-it 1 6.450000
########## 第二轮 ##########
得分
模型 轮次
Chocolatine-2-14B-Instruct-v2.0.3 2 9.050000
gpt-4o-mini 2 8.912500
Qwen2.5-14B-Instruct 2 8.912500
Chocolatine-14B-Instruct-DPO-v1.2 2 8.337500
DeepSeek-R1-Distill-Qwen-14B 2 8.200000
phi-4 2 8.131250
Chocolatine-3B-Instruct-DPO-Revised 2 7.937500
Chocolatine-3B-Instruct-DPO-v1.2 2 7.862500
Phi-3-medium-4k-instruct 2 7.750000
gpt-3.5-turbo 2 7.679167
Phi-3.5-mini-instruct 2 7.575000
Meta-Llama-3.1-8B-Instruct 2 6.787500
Mistral-7B-Instruct-v0.3 2 6.500000
vigostral-7b-chat 2 6.162500
gemma-2-2b-it 2 6.100000
########## 平均分 ##########
得分
模型
gpt-4o-mini 9.100000
Chocolatine-2-14B-Instruct-v2.0.3 9.081250
Qwen2.5-14B-Instruct 8.900000
Chocolatine-14B-Instruct-DPO-v1.2 8.475000
DeepSeek-R1-Distill-Qwen-14B 8.287500
phi-4 8.215625
Chocolatine-3B-Instruct-DPO-v1.2 8.118750
Phi-3.5-mini-instruct 8.050000
Phi-3-medium-4k-instruct 7.987500
Chocolatine-3B-Instruct-DPO-Revised 7.962500
gpt-3.5-turbo 7.908333
Meta-Llama-3.1-8B-Instruct 6.918750
Mistral-7B-Instruct-v0.3 6.625000
vigostral-7b-chat 6.475000
gemma-2-2b-it 6.275000
OpenLLM排行榜(存档)
Chocolatine-2是 OpenLLM排行榜 中表现最佳的14B微调模型(平均得分41.08,并列第一)。
[更新于2025年2月12日]
指标 |
值 |
平均分 |
41.08 |
IFEval |
70.37 |
BBH |
50.63 |
MATH Lvl 5 |
40.56 |
GPQA |
17.23 |
MuSR |
19.07 |
MMLU-PRO |
48.60 |
使用方法
您可以通过我的 Colab笔记本 运行此模型。
也可以使用以下代码运行Chocolatine-2:
import transformers
from transformers import AutoTokenizer
message = [
{"role": "system", "content": "你是一个乐于助人的助手聊天机器人。"},
{"role": "user", "content": "什么是大语言模型?"}
]
tokenizer = AutoTokenizer.from_pretrained(new_model)
prompt = tokenizer.apply_chat_template(message, add_generation_prompt=True, tokenize=False)
pipeline = transformers.pipeline(
"text-generation",
model=new_model,
tokenizer=tokenizer
)
sequences = pipeline(
prompt,
do_sample=True,
temperature=0.7,
top_p=0.9,
num_return_sequences=1,
max_length=200,
)
print(sequences[0]['generated_text'])
局限性
Chocolatine-2系列模型是一个快速演示,表明基础模型可以通过微调轻松实现出色的性能。
它没有任何内容审核机制。
- 开发者: Jonathan Pacifico,2025年
- 模型类型: 大语言模型
- 支持语言(NLP): 法语、英语
- 许可证: Apache-2.0
🇫🇷 法国制造,用心之作 ❤️