意大利语优化
Italian ModernBERT Base Embed Mmarco Mnrl
这是一个基于Italian-ModernBERT-base的句子转换器模型,专门用于计算句子相似度和特征提取。
文本嵌入
I
nickprock
535
4
Velvet 2B
Apache-2.0
Velvet-2B是一个20亿参数的意大利语-英语双语大语言模型,基于Transformer架构从头训练,专注于文本生成和理解任务。
大型语言模型
Transformers
支持多种语言
V
Almawave
3,784
37
Gemma 2 9b Neogenesis Ita
基于VAGOsolutions/SauerkrautLM-gemma-2-9b-it微调的版本,优化了意大利语性能表现,支持8k上下文长度。
大型语言模型
Transformers
支持多种语言
G
anakin87
3,029
10
Minerva 7B Instruct V1.0
Apache-2.0
Minerva是由Sapienza NLP开发的意大利语-英语双语大语言模型,基于Mistral架构,拥有70亿参数,支持指令跟随和对话任务。
大型语言模型
Transformers
支持多种语言
M
sapienzanlp
4,331
18
Phi 3.5 Mini ITA
MIT
基于Microsoft/Phi-3.5-mini-instruct微调的版本,优化了意大利语性能的小型但强大的语言模型
大型语言模型
Transformers
支持多种语言
P
anakin87
8,495
13
Llama 3.1 8b ITA
基于Meta-Llama-3.1-8B-Instruct优化的意大利语支持大语言模型
大型语言模型
Transformers
支持多种语言
L
DeepMount00
6,719
11
Qwen2 1.5B Ita
Apache-2.0
Qwen2 1.5B是一款专为意大利语优化的紧凑型语言模型,性能接近ITALIA(iGenius)但体积缩小6倍。
大型语言模型
Transformers
支持多种语言
Q
DeepMount00
6,220
21
Llama 3 8b Ita
基于Meta-Llama-3-8B优化的意大利语大语言模型,支持英语和意大利语文本生成任务
大型语言模型
Transformers
支持多种语言
L
DeepMount00
16.00k
27
Minerva 1B Base V1.0
Apache-2.0
Minerva-1B-base-v1.0是由Sapienza NLP与FAIR及CINECA合作开发的10亿参数意英双语大语言模型,基于2000亿token(各1000亿意/英)训练
大型语言模型
Transformers
支持多种语言
M
sapienzanlp
551
28