RoLlama3是基于Meta Llama 3构建的罗马尼亚语生成文本模型系列,这是8B参数的指令微调版本,专门针对罗马尼亚语任务优化。
下载量 62
发布时间 : 6/6/2024
模型介绍
内容详情
替代品
模型简介
该模型是OpenLLM-Ro项目开发的罗马尼亚语大语言模型,基于Meta-Llama-3-8B微调,适用于各种罗马尼亚语自然语言处理任务,特别是类似助手的聊天场景。
模型特点
罗马尼亚语优化
专门针对罗马尼亚语进行预训练和微调,在罗马尼亚语任务上表现优异
多数据集微调
使用7个不同的罗马尼亚语数据集进行指令微调,涵盖广泛的应用场景
全面评估
在多个罗马尼亚语基准测试中进行了全面评估,包括RoMT-Bench、RoCulturaBench等
模型能力
罗马尼亚语文本生成
问答系统
机器翻译
文本分类
语义相似度计算
使用案例
教育
学术问答
回答罗马尼亚语学术问题
在Romanian_Academic_Benchmarks上准确率50.56%
翻译
英罗互译
英语和罗马尼亚语之间的机器翻译
WMT_EN-RO BLEU 24.01,WMT_RO-EN BLEU 27.36
情感分析
罗马尼亚语情感分类
对罗马尼亚语文本进行情感分析
LaRoSeDa_binary宏F1 97.52%
license: cc-by-nc-4.0 language:
- 罗马尼亚语 base_model:
- meta-llama/Meta-Llama-3-8B datasets:
- OpenLLM-Ro/ro_sft_alpaca
- OpenLLM-Ro/ro_sft_alpaca_gpt4
- OpenLLM-Ro/ro_sft_dolly
- OpenLLM-Ro/ro_sft_selfinstruct_gpt4
- OpenLLM-Ro/ro_sft_norobots
- OpenLLM-Ro/ro_sft_orca
- OpenLLM-Ro/ro_sft_camel
model-index:
- name: OpenLLM-Ro/RoLlama3-8b-Instruct-2024-06-28
results:
- task:
type: 文本生成
dataset:
name: RoMT-Bench
type: RoMT-Bench
metrics:
- name: 得分 type: 得分 value: 5.15
- task:
type: 文本生成
dataset:
name: RoCulturaBench
type: RoCulturaBench
metrics:
- name: 得分 type: 得分 value: 3.71
- task:
type: 文本生成
dataset:
name: Romanian_Academic_Benchmarks
type: Romanian_Academic_Benchmarks
metrics:
- name: 平均准确率 type: 准确率 value: 50.56
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_arc_challenge
type: OpenLLM-Ro/ro_arc_challenge
metrics:
- name: 平均准确率 type: 准确率 value: 44.70
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_mmlu
type: OpenLLM-Ro/ro_mmlu
metrics:
- name: 平均准确率 type: 准确率 value: 52.19
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_winogrande
type: OpenLLM-Ro/ro_winogrande
metrics:
- name: 平均准确率 type: 准确率 value: 67.23
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_hellaswag
type: OpenLLM-Ro/ro_hellaswag
metrics:
- name: 平均准确率 type: 准确率 value: 57.69
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_gsm8k
type: OpenLLM-Ro/ro_gsm8k
metrics:
- name: 平均准确率 type: 准确率 value: 30.23
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_truthfulqa
type: OpenLLM-Ro/ro_truthfulqa
metrics:
- name: 平均准确率 type: 准确率 value: 51.34
- task:
type: 文本生成
dataset:
name: LaRoSeDa_binary
type: LaRoSeDa_binary
metrics:
- name: 平均宏F1 type: 宏F1 value: 97.52
- task:
type: 文本生成
dataset:
name: LaRoSeDa_multiclass
type: LaRoSeDa_multiclass
metrics:
- name: 平均宏F1 type: 宏F1 value: 67.41
- task:
type: 文本生成
dataset:
name: LaRoSeDa_binary_finetuned
type: LaRoSeDa_binary_finetuned
metrics:
- name: 平均宏F1 type: 宏F1 value: 94.15
- task:
type: 文本生成
dataset:
name: LaRoSeDa_multiclass_finetuned
type: LaRoSeDa_multiclass_finetuned
metrics:
- name: 平均宏F1 type: 宏F1 value: 87.13
- task:
type: 文本生成
dataset:
name: WMT_EN-RO
type: WMT_EN-RO
metrics:
- name: 平均BLEU type: BLEU value: 24.01
- task:
type: 文本生成
dataset:
name: WMT_RO-EN
type: WMT_RO-EN
metrics:
- name: 平均BLEU type: BLEU value: 27.36
- task:
type: 文本生成
dataset:
name: WMT_EN-RO_finetuned
type: WMT_EN-RO_finetuned
metrics:
- name: 平均BLEU type: BLEU value: 26.53
- task:
type: 文本生成
dataset:
name: WMT_RO-EN_finetuned
type: WMT_RO-EN_finetuned
metrics:
- name: 平均BLEU type: BLEU value: 40.36
- task:
type: 文本生成
dataset:
name: XQuAD
type: XQuAD
metrics:
- name: 平均精确匹配 type: 精确匹配 value: 39.43
- task:
type: 文本生成
dataset:
name: XQuAD
type: XQuAD
metrics:
- name: 平均F1 type: F1 value: 59.50
- task:
type: 文本生成
dataset:
name: XQuAD_finetuned
type: XQuAD_finetuned
metrics:
- name: 平均精确匹配 type: 精确匹配 value: 44.45
- task:
type: 文本生成
dataset:
name: XQuAD_finetuned
type: XQuAD_finetuned
metrics:
- name: 平均F1 type: F1 value: 59.76
- task:
type: 文本生成
dataset:
name: STS
type: STS
metrics:
- name: 平均Spearman type: Spearman value: 77.20
- task:
type: 文本生成
dataset:
name: STS
type: STS
metrics:
- name: 平均Pearson type: Pearson value: 77.87
- task:
type: 文本生成
dataset:
name: STS_finetuned
type: STS_finetuned
metrics:
- name: 平均Spearman type: Spearman value: 85.80
- task:
type: 文本生成
dataset:
name: STS_finetuned
type: STS_finetuned
metrics:
- name: 平均Pearson type: Pearson value: 86.05
- task:
type: 文本生成
dataset:
name: RoMT-Bench
type: RoMT-Bench
metrics:
- name: 第一轮 type: 得分 value: 6.03
- name: 第二轮 type: 得分 value: 4.28
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_arc_challenge
type: OpenLLM-Ro/ro_arc_challenge
metrics:
- name: 0样本 type: 准确率 value: 41.90
- name: 1样本 type: 准确率 value: 44.30
- name: 3样本 type: 准确率 value: 44.56
- name: 5样本 type: 准确率 value: 45.50
- name: 10样本 type: 准确率 value: 46.10
- name: 25样本 type: 准确率 value: 45.84
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_mmlu
type: OpenLLM-Ro/ro_mmlu
metrics:
- name: 0样本 type: 准确率 value: 50.85
- name: 1样本 type: 准确率 value: 51.24
- name: 3样本 type: 准确率 value: 53.30
- name: 5样本 type: 准确率 value: 53.39
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_winogrande
type: OpenLLM-Ro/ro_winogrande
metrics:
- name: 0样本 type: 准确率 value: 65.19
- name: 1样本 type: 准确率 value: 66.54
- name: 3样本 type: 准确率 value: 67.88
- name: 5样本 type: 准确率 value: 69.30
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_hellaswag
type: OpenLLM-Ro/ro_hellaswag
metrics:
- name: 0样本 type: 准确率 value: 56.12
- name: 1样本 type: 准确率 value: 57.37
- name: 3样本 type: 准确率 value: 57.92
- name: 5样本 type: 准确率 value: 58.18
- name: 10样本 type: 准确率 value: 58.85
- task:
type: 文本生成
dataset:
name: OpenLLM-Ro/ro_gsm8k
type: OpenLLM-Ro/ro_gsm8k
metrics:
- name: 1样本 type: 准确率 value: 29.42
- name: 3样本 type: 准确率 value: 30.02
- name: 5样本 type: 准确率 value: 31.24
- task:
type: 文本生成
dataset:
name: LaRoSeDa_binary
type: LaRoSeDa_binary
metrics:
- name: 0样本 type: 宏F1 value: 97.43
- name: 1样本 type: 宏F1 value: 96.60
- name: 3样本 type: 宏F1 value: 97.90
- name: 5样本 type: 宏F1 value: 98.13
- task:
type: 文本生成
dataset:
name: LaRoSeDa_multiclass
type: LaRoSeDa_multiclass
metrics:
- name: 0样本 type: 宏F1 value: 63.77
- name: 1样本 type: 宏F1 value: 68.91
- name: 3样本 type: 宏F1 value: 66.36
- name: 5样本 type: 宏F1 value: 70.61
- task:
type: 文本生成
dataset:
name: WMT_EN-RO
type: WMT_EN-RO
metrics:
- name: 0样本 type: BLEU value: 6.92
- name: 1样本 type: BLEU value: 29.33
- name: 3样本 type: BLEU value: 29.79
- name: 5样本 type: BLEU value: 30.02
- task:
type: 文本生成
dataset:
name: WMT_RO-EN
type: WMT_RO-EN
metrics:
- name: 0样本 type: BLEU value: 4.50
- name: 1样本 type: BLEU value: 30.30
- name: 3样本 type: BLEU value: 36.96
- name: 5样本 type: BLEU value: 37.70
- task:
type: 文本生成
dataset:
name: XQuAD_EM
type: XQuAD_EM
metrics:
- name: 0样本 type: 精确匹配 value: 4.45
- name: 1样本 type: 精确匹配 value: 48.24
- name: 3样本 type: 精确匹配 value: 52.03
- name: 5样本 type: 精确匹配 value: 53.03
- task:
type: 文本生成
dataset:
name: XQuAD_F1
type: XQuAD_F1
metrics:
- name: 0样本 type: F1 value: 26.08
- name: 1样本 type: F1 value: 68.40
- name: 3样本 type: F1 value: 71.92
- name: 5样本 type: F1 value: 71.60
- task:
type: 文本生成
dataset:
name: STS_Spearman
type: STS_Spearman
metrics:
- name: 1样本 type: Spearman value: 77.76
- name: 3样本 type: Spearman value: 76.72
- name: 5样本 type: Spearman value: 77.12
- task:
type: 文本生成
dataset:
name: STS_Pearson
type: STS_Pearson
metrics:
- name: 1样本 type: Pearson value: 77.83
- name: 3样本 type: Pearson value: 77.64
- name: 5样本 type: Pearson value: 78.13
- task:
type: 文本生成
dataset:
name: RoMT-Bench
type: RoMT-Bench
metrics:
- name: OpenLLM-Ro/RoLlama3-8b-Instruct-2024-06-28
results:
模型卡片
基于Meta Llama 3构建
RoLlama3是一个针对罗马尼亚语预训练和微调的生成文本模型系列。这是8B指令模型的存储库。其他模型的链接可在本页底部找到。
模型详情
模型描述
OpenLLM-Ro是首个为罗马尼亚语构建开源大语言模型的努力。OpenLLM-Ro开发并公开发布了一系列罗马尼亚语大语言模型,包括基础模型以及指令和聊天变体。
- 开发者: OpenLLM-Ro
- 语言: 罗马尼亚语
- 许可证: cc-by-nc-4.0
- 微调基础模型: Meta-Llama-3-8B
- 训练数据集: RoAlpaca, RoAlpacaGPT4, RoDolly, RoSelfInstruct, RoNoRobots, RoOrca, RoCamel
模型来源
- 代码库: https://github.com/OpenLLM-Ro/LLaMA-Factory
- 论文: https://arxiv.org/abs/2406.18266
预期用途
预期使用场景
RoLlama3旨在用于罗马尼亚语的研究用途。基础模型可适应多种自然语言任务,而指令和聊天调优模型则适用于类似助手的聊天场景。
超出范围的使用
任何违反许可证、适用法律或法规的使用,以及罗马尼亚语之外的语言使用。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型
支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型
英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型
英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型
英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型
英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
6.3M
198
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers

支持多种语言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型
支持多种语言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
5.3M
431
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文