许可证:MIT
语言:
基础模型:
- Qwen/Qwen2.5-0.5B-Instruct
任务标签:文本生成
数据集:
- adalbertojunior/openHermes_portuguese
- cnmoro/smoltalk-555k-ptbr
- cnmoro/RagMixPTBR-Legal-Alpaca-2M
模型索引:
- 名称:Qwen2.5-0.5B-Portuguese-v1
结果:
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:ENEM Challenge(无图像)
类型:eduagarcia/enem_challenge
拆分:训练集
参数:
少量样本数:3
指标:
- 类型:准确率
值:37.86
名称:准确率
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:BLUEX(无图像)
类型:eduagarcia-temp/BLUEX_without_images
拆分:训练集
参数:
少量样本数:3
指标:
- 类型:准确率
值:34.63
名称:准确率
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:OAB考试
类型:eduagarcia/oab_exams
拆分:训练集
参数:
少量样本数:3
指标:
- 类型:准确率
值:33.12
名称:准确率
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:Assin2 RTE
类型:assin2
拆分:测试集
参数:
少量样本数:15
指标:
- 类型:宏观F1
值:86.3
名称:宏观F1
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:Assin2 STS
类型:eduagarcia/portuguese_benchmark
拆分:测试集
参数:
少量样本数:15
指标:
- 类型:皮尔逊相关系数
值:54.3
名称:皮尔逊相关系数
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:FaQuAD NLI
类型:ruanchaves/faquad-nli
拆分:测试集
参数:
少量样本数:15
指标:
- 类型:宏观F1
值:65.33
名称:宏观F1
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:HateBR Binary
类型:ruanchaves/hatebr
拆分:测试集
参数:
少量样本数:25
指标:
- 类型:宏观F1
值:44.06
名称:宏观F1
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:葡萄牙语仇恨言论 Binary
类型:hate_speech_portuguese
拆分:测试集
参数:
少量样本数:25
指标:
- 类型:宏观F1
值:55.1
名称:宏观F1
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:tweetSentBR
类型:eduagarcia/tweetsentbr_fewshot
拆分:测试集
参数:
少量样本数:25
指标:
- 类型:宏观F1
值:45.96
名称:宏观F1
来源:
URL:https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=cnmoro/Qwen2.5-0.5B-Portuguese-v1
名称:Open Portuguese LLM Leaderboard
Qwen2.5-0.5B针对葡萄牙语能力和智能提升进行了微调。
https://ollama.com/cnmoro/Qwen2.5-0.5B-Portuguese-v1
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "cnmoro/Qwen2.5-0.5B-Portuguese-v1"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "写一段关于LLMs(大型语言模型)及其应用的简短介绍。"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
response
总体结果
任务 |
指标 |
值 |
标准差 |
assin2_rte |
宏观F1 |
0.391 |
0.006 |
assin2_rte |
准确率 |
0.527 |
0.007 |
assin2_sts |
皮尔逊相关系数 |
0.115 |
0.014 |
assin2_sts |
均方误差 |
1.011 |
N/A |
bluex |
准确率 |
0.349 |
0.010 |
enem_challenge |
准确率 |
0.363 |
0.007 |
faquad_nli |
宏观F1 |
0.595 |
0.017 |
faquad_nli |
准确率 |
0.791 |
0.011 |
hatebr_offensive |
宏观F1 |
0.338 |
0.005 |
hatebr_offensive |
准确率 |
0.502 |
0.009 |
oab_exams |
准确率 |
0.326 |
0.006 |
portuguese_hate_speech |
宏观F1 |
0.412 |
0.004 |
portuguese_hate_speech |
准确率 |
0.702 |
0.011 |
tweetsentbr |
宏观F1 |
0.455 |
0.005 |
tweetsentbr |
准确率 |
0.594 |
0.008 |
详细结果
assin2_rte
指标 |
值 |
标准差 |
宏观F1 |
0.391 |
0.006 |
准确率 |
0.527 |
0.007 |
assin2_sts
指标 |
值 |
标准差 |
皮尔逊相关系数 |
0.115 |
0.014 |
均方误差 |
1.011 |
N/A |
bluex
考试ID |
指标 |
值 |
标准差 |
全部 |
准确率 |
0.349 |
0.010 |
USP_2019 |
准确率 |
0.225 |
0.038 |
USP_2024 |
准确率 |
0.293 |
0.041 |
USP_2021 |
准确率 |
0.423 |
0.040 |
UNICAMP_2018 |
准确率 |
0.241 |
0.034 |
UNICAMP_2024 |
准确率 |
0.444 |
0.043 |
USP_2020 |
准确率 |
0.393 |
0.038 |
UNICAMP_2020 |
准确率 |
0.291 |
0.035 |
UNICAMP_2021_1 |
准确率 |
0.326 |
0.040 |
UNICAMP_2022 |
准确率 |
0.487 |
0.046 |
USP_2022 |
准确率 |
0.388 |
0.040 |
UNICAMP_2019 |
准确率 |
0.280 |
0.037 |
UNICAMP_2021_2 |
准确率 |
0.294 |
0.037 |
UNICAMP_2023 |
准确率 |
0.558 |
0.044 |
USP_2023 |
准确率 |
0.364 |
0.042 |
USP_2018 |
准确率 |
0.278 |
0.035 |
enem_challenge
考试ID |
指标 |
值 |
标准差 |
全部 |
准确率 |
0.363 |
0.007 |
2016_2 |
准确率 |
0.390 |
0.025 |
2015 |
准确率 |
0.319 |
0.025 |
2011 |
准确率 |
0.410 |
0.026 |
2013 |
准确率 |
0.398 |
0.027 |
2017 |
准确率 |
0.319 |
0.025 |
2022 |
准确率 |
0.376 |
0.024 |
2009 |
准确率 |
0.226 |
0.023 |
2010 |
准确率 |
0. |
|