多阶段训练
Olmo 2 0425 1B
Apache-2.0
OLMo 2 1B是艾伦人工智能研究所推出的开放语言模型系列中最小的模型,基于OLMo-mix-1124预训练,并在中期训练阶段使用Dolmino-mix-1124数据集。
大型语言模型
Transformers
英语
O
allenai
13.31k
45
Olmo 2 0325 32B
Apache-2.0
OLMo 2 32B是艾伦人工智能研究院(AI2)推出的开放语言模型系列中规模最大的32B参数模型,基于Apache 2.0许可开源,支持英语语言处理。
大型语言模型
Transformers
英语
O
allenai
2,246
47
Deberta V3 Large Lemon Spell 5k
基于DeBERTa-v3-large微调的英语语法纠错模型,专注于检测和修正常见语法错误
序列标注
Transformers
支持多种语言
D
manred1997
15
1
Mistral 7B Instruct Ukrainian
Apache-2.0
针对乌克兰语优化的开源大语言模型,通过三阶段训练流程构建,包括微调、模型融合和直接偏好优化
大型语言模型
Transformers
M
SherlockAssistant
1,443
22
Sambert
这是一个基于sentence-transformers的希伯来语嵌入模型,能将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
其他
S
MPA
149
2
Pegasus Indian Legal
MIT
该模型是基于legal-pegasus在印度法律数据集上微调的法律文本摘要模型
大型语言模型
Transformers
P
akhilm97
104
2
Colossal LLaMA 2 7b Base
基于LLaMA-2的中英双语开源大语言模型,经过约85亿token的持续预训练,支持4096 token的上下文窗口。
大型语言模型
Transformers
支持多种语言
C
hpcai-tech
147
76
Klue Sroberta Base Continue Learning By Mnr
这是一个基于KLUE/NLI和KLUE/STS数据集训练的韩语句子嵌入模型,采用sentence-transformers框架,通过两阶段训练优化句子相似度任务。
文本嵌入
Transformers
韩语
K
bespin-global
88.10k
32
Indobert Base P1
MIT
IndoBERT是基于BERT模型的印尼语先进语言模型,采用掩码语言建模(MLM)和下一句预测(NSP)目标进行训练。
大型语言模型
其他
I
indobenchmark
261.95k
25