多领域预训练
GECKO 7B
Apache-2.0
GECKO是基于韩语、英语和代码训练的70亿参数解码器专用Transformer模型,采用Apache 2.0许可开源发布。
大型语言模型
Transformers
支持多种语言
G
kifai
43
12
Ko Llama3 Luxia 8B
Saltlux AI实验室基于Meta Llama-3-8B优化的韩语大语言模型,扩展了韩语分词器并精选100GB韩语数据预训练
大型语言模型
Transformers
支持多种语言
K
saltlux
2,127
78
Tinyllama V1.1 Chinese
Apache-2.0
TinyLlama是一个11亿参数的小型语言模型,采用与Llama 2相同的架构和分词器,适用于资源有限的应用场景。
大型语言模型
Transformers
英语
T
TinyLlama
447
9
Vietnamese Llama2 7b 120GB
其他
基于Llama-2-7B优化的越南语大语言模型,通过持续预训练在124GB多领域越南语和英语数据上增强语言理解能力
大型语言模型
Transformers
支持多种语言
V
bkai-foundation-models
65
35
Mpt 7b
Apache-2.0
MPT-7B是由MosaicML训练的开源商用大语言模型,基于1万亿标记的英文文本和代码预训练,采用改进的Transformer架构优化训练和推理效率。
大型语言模型
Transformers
其他
M
mosaicml
27.19k
1,168
Rugpt 3.5 13B
MIT
面向俄语的130亿参数语言模型,基于300GB多领域数据预训练,俄语困惑度约8.8
大型语言模型
Transformers
支持多种语言
R
ai-forever
4,538
281
Kaz Roberta Conversational
Apache-2.0
Kaz-RoBERTa是一个基于大规模哈萨克语语料库通过自监督方式预训练的transformers模型,主要用于掩码语言建模任务。
大型语言模型
Transformers
其他
K
kz-transformers
18.03k
13
Elhberteu
ElhBERTeu是为巴斯克语推出的BERT模型,基于多领域语料训练,在BasqueGLUE基准测试中表现优异。
大型语言模型
Transformers
其他
E
orai-nlp
529
2
Distilbert Mlm Best
DistilBERT是BERT的轻量级蒸馏版本,保留了BERT 97%的性能,同时体积缩小40%,速度提升60%。
大型语言模型
Transformers
D
vocab-transformers
26
0
Distilbert Mlm 1000k
DistilBERT是BERT的轻量级蒸馏版本,保留了BERT 97%的性能,同时体积缩小40%,速度提升60%。
大型语言模型
Transformers
D
vocab-transformers
26
0
Distilbert Mlm 250k
DistilBERT 是 BERT 的轻量级蒸馏版本,保留了 BERT 的大部分性能,但参数量更少,推理速度更快。
大型语言模型
Transformers
D
vocab-transformers
17
0
Procbert
ProcBERT是专为流程文本优化的预训练语言模型,基于大规模流程文本语料库(包含生物医学文献、化学专利和烹饪食谱)进行预训练,在下游任务中展现出卓越性能。
大型语言模型
Transformers
英语
P
fbaigt
13
1
CPM Generate
MIT
CPM是基于Transformer的26亿参数中文预训练语言模型,使用100GB中文语料训练,支持多种自然语言处理任务。
大型语言模型
Transformers
中文
C
TsinghuaAI
622
42
Wav2vec2 Large Robust Ft Swbd 300h
Apache-2.0
该模型是Facebook Wav2Vec2-Large-Robust的微调版本,专门针对电话语音识别任务优化,使用300小时Switchboard电话语音语料库进行微调。
语音识别
Transformers
英语
W
facebook
2,543
20
Gpt2
基于因果语言建模目标预训练的印尼语生成模型,使用Flax框架训练
大型语言模型
其他
G
indonesian-nlp
130
11