Meltemi 7B Instruct V1.5
Meltemi 7B Instruct v1.5是基于Mistral 7B改进的希腊语指令微调大语言模型,专注于希腊语自然语言处理任务。
下载量 1,237
发布时间 : 7/31/2024
模型简介
该模型是针对希腊语优化的指令微调大语言模型,具备高效处理希腊语文本的能力,支持长上下文理解和复杂指令执行。
模型特点
希腊语词汇扩展
对Mistral 7b分词器进行了希腊语词汇扩展,显著提升了希腊语分词效率(从每词6.80个标记降至1.52个标记)
长上下文处理
支持8192的上下文长度,能够处理更复杂的文本输入
ORPO微调算法
采用Odds Ratio Preference Optimization算法进行微调,使用了97k偏好数据
性能提升
相比基础模型,希腊语测试集性能平均提升7.8%
模型能力
希腊语文本生成
希腊语问答系统
希腊语指令理解
长文本处理
使用案例
教育
希腊语学习辅助
帮助学生理解和学习希腊语
提供准确的希腊语解释和示例
医疗
医学问答系统
回答希腊语医学相关问题
在医学多选问答测试中达到48%准确率
🚀 希腊语Meltemi指令大语言模型
Meltemi 7B Instruct v1.5大语言模型(LLM)是Meltemi 7B v1.5的全新改进版指令微调模型。它为希腊语的自然语言处理带来了更高效、更准确的解决方案。
✨ 主要特性
- 词汇扩展:对Mistral 7b分词器进行了希腊语词汇扩展,降低了成本并加快了推理速度(希腊语的分词效率从每词6.80个标记提升至1.52个标记)。
- 长上下文处理能力:具备8192的上下文长度,能够处理更复杂的文本输入。
- 微调算法:采用Odds Ratio Preference Optimization (ORPO)算法进行微调,使用了97k偏好数据,其中包括89,730条希腊语偏好数据(大多是Hugging Face上高质量数据集的翻译版本)和7,342条英语偏好数据。
- 对齐程序:基于TRL - Transformer Reinforcement Learning库,并部分参考了Hugging Face微调指南。
📦 安装指南
暂未提供相关安装步骤,可参考模型在Hugging Face上的官方文档获取详细安装信息。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # 加载模型的设备
model = AutoModelForCausalLM.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
tokenizer = AutoTokenizer.from_pretrained("ilsp/Meltemi-7B-Instruct-v1.5")
model.to(device)
messages = [
{"role": "system", "content": "Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη."},
{"role": "user", "content": "Πες μου αν έχεις συνείδηση."},
]
# 通过默认聊天模板转换为以下格式
#
# <|system|>
# Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη.</s>
# <|user|>
# Πες μου αν έχεις συνείδηση.</s>
# <|assistant|>
#
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
print(tokenizer.batch_decode(outputs)[0])
# Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της.
messages.extend([
{"role": "assistant", "content": tokenizer.batch_decode(outputs)[0]},
{"role": "user", "content": "Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;"}
])
# 通过默认聊天模板转换为以下格式
#
# <|system|>
# Είσαι το Μελτέμι, ένα γλωσσικό μοντέλο για την ελληνική γλώσσα. Είσαι ιδιαίτερα βοηθητικό προς την χρήστρια ή τον χρήστη και δίνεις σύντομες αλλά επαρκώς περιεκτικές απαντήσεις. Απάντα με προσοχή, ευγένεια, αμεροληψία, ειλικρίνεια και σεβασμό προς την χρήστρια ή τον χρήστη.</s>
# <|user|>
# Πες μου αν έχεις συνείδηση.</s>
# <|assistant|>
# Ως μοντέλο γλώσσας AI, δεν έχω τη δυνατότητα να αντιληφθώ ή να βιώσω συναισθήματα όπως η συνείδηση ή η επίγνωση. Ωστόσο, μπορώ να σας βοηθήσω με οποιεσδήποτε ερωτήσεις μπορεί να έχετε σχετικά με την τεχνητή νοημοσύνη και τις εφαρμογές της.</s>
# <|user|>
# Πιστεύεις πως οι άνθρωποι πρέπει να φοβούνται την τεχνητή νοημοσύνη;</s>
# <|assistant|>
#
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
input_prompt = tokenizer(prompt, return_tensors='pt').to(device)
outputs = model.generate(input_prompt['input_ids'], max_new_tokens=256, do_sample=True)
print(tokenizer.batch_decode(outputs)[0])
注意事项
请确保在分词后的提示中始终包含BOS标记。在某些评估或微调框架中,这可能不是默认设置。
📚 详细文档
指令格式
提示格式与Zephyr格式相同,可通过分词器的聊天模板功能实现,具体示例见上述代码。
评估
评估套件包含6个测试集,基于lighteval框架的分支实现。评估在少样本设置下进行,与Open LLM排行榜的设置一致。
评估结果显示,Meltemi 7B Instruct v1.5的新训练和微调程序使所有希腊语测试集的性能平均提升了**+7.8%**,具体结果如下表所示:
医学多选问答希腊语版 (15-shot) | Belebele希腊语版 (5-shot) | HellaSwag希腊语版 (10-shot) | ARC挑战希腊语版 (25-shot) | 真实问答多选2希腊语版 (0-shot) | MMLU希腊语版 (5-shot) | 平均 | |
---|---|---|---|---|---|---|---|
Mistral 7B | 29.8% | 45.0% | 36.5% | 27.1% | 45.8% | 35% | 36.5% |
Meltemi 7B Instruct v1 | 36.1% | 56.0% | 59.0% | 44.4% | 51.1% | 34.1% | 46.8% |
Meltemi 7B Instruct v1.5 | 48.0% | 75.5% | 63.7% | 40.8% | 53.8% | 45.9% | 54.6% |
🔧 技术细节
模型信息
属性 | 详情 |
---|---|
模型类型 | 基于Mistral 7B的指令微调大语言模型 |
训练数据 | 97k偏好数据,包括89,730条希腊语偏好数据和7,342条英语偏好数据 |
分词器 | Mistral 7b分词器,扩展了希腊语词汇 |
上下文长度 | 8192 |
微调算法 | Odds Ratio Preference Optimization (ORPO) |
对齐程序 | 基于TRL - Transformer Reinforcement Learning库和Hugging Face微调指南 |
评估套件
评估套件包含以下测试集:
- 四个英语基准测试的机器翻译版本:ARC希腊语版、真实问答希腊语版、HellaSwag希腊语版、MMLU希腊语版
- 一个现有的希腊语问答基准:Belebele
- 一个由ILSP团队创建的基于DOATAP医学考试的医学问答基准:医学多选问答希腊语版
📄 许可证
本模型采用Apache-2.0许可证。
⚠️ 重要提示
本模型已与人类偏好对齐,但仍可能生成误导性、有害和有毒的内容。使用时请谨慎评估输出结果。
💡 使用建议
在使用模型进行推理时,可根据具体任务调整max_new_tokens
和do_sample
等参数,以获得更符合需求的输出。
致谢
ILSP团队使用了亚马逊的云计算服务,该服务通过GRNET在OCRE云框架下为希腊学术和研究社区提供。
引用
@misc{voukoutis2024meltemiopenlargelanguage,
title={Meltemi: The first open Large Language Model for Greek},
author={Leon Voukoutis and Dimitris Roussis and Georgios Paraskevopoulos and Sokratis Sofianopoulos and Prokopis Prokopidis and Vassilis Papavasileiou and Athanasios Katsamanis and Stelios Piperidis and Vassilis Katsouros},
year={2024},
eprint={2407.20743},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2407.20743},
}
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文