Yugogpt Florida Q4 0.GGUF
MIT
YugoGPT-Florida 是一个基于塞尔维亚语的大语言模型,专注于文本生成任务。
大型语言模型
其他
Y
MarkoRadojcic
36
2
Ru Patents Ner
这是一个基于spaCy框架的俄语专利命名实体识别模型,专注于识别专利文本中的特定实体类型。
序列标注
其他
R
Delicalib
37
1
Labess 7b Chat 16bit
Apache-2.0
Labess-7b-chat 是一个针对突尼斯方言(Derja)进行指令调优的开源模型,基于 jais-adapted-7b-chat 模型,使用突尼斯方言数据集进行持续预训练。
大型语言模型
Transformers

阿拉伯语
L
linagora
120
3
Qwen2.5 1.5B TrSummarization Unsloth GGUF
Apache-2.0
基于Qwen2.5-1.5B模型微调的4位量化版本,专注于土耳其语文本生成和摘要任务
大型语言模型
其他
Q
anilguven
29
0
Llama3.2 3b TrSummarization Unsloth GGUF
Apache-2.0
基于unsloth/Llama-3.2-3B-bnb-4bit微调的土耳其语文本生成模型,专注于摘要生成任务。
大型语言模型
其他
L
anilguven
48
0
V1 Kurdana
基于21位库尔德诗人的6116首诗歌训练而成的诗歌生成模型
大型语言模型
Transformers

其他
V
shkna1368
31
2
Latxa 7b V1.2
Latxa是基于LLaMA-2架构的巴斯克语大语言模型,专为低资源语言设计,在42亿token的巴斯克语料库上训练
大型语言模型
Transformers

支持多种语言
L
HiTZ
875
5
Burmesebert
缅甸语-伯特是一个基于bert-large-uncased的双语掩码语言模型,支持英语和缅甸语。
大型语言模型
Transformers

支持多种语言
B
jojo-ai-mst
20
2
Burmese GPT
MIT
由Wai Yan博士开发的缅甸语大型语言模型,基于GPT-2架构微调,专注于缅甸语文本补全任务。
大型语言模型
Transformers

其他
B
WYNN747
35
7
Mistral 7b Yo Instruct
一个专注于约鲁巴语文本生成的模型,基于多个数据集微调而成。
大型语言模型
Transformers

其他
M
seyabde
18
2
Gpt2 Base Fa
基于GPT-2架构的波斯语文本生成模型,移植至Hezar框架以确保兼容性
大型语言模型
其他
G
hezarai
57
2
Twibert
MIT
TwiBERT是一款专为加纳及西非地区广泛使用的特威语设计的预训练语言模型
大型语言模型
Transformers

其他
T
sakrah
16
3
Myanberta
Apache-2.0
MyanBERTa是基于BERT架构的缅甸语预训练语言模型,在包含5,992,299个句子的缅甸语数据集上进行了预训练。
大型语言模型
Transformers

其他
M
UCSYNLP
91
4
Wangchanberta Base Att Spm Uncased Tagging
基于airesearch/wangchanberta-base-att-spm-uncased微调的模型,具体用途未明确说明
大型语言模型
Transformers

W
bookpanda
41
1
Wav2vec2 Large Xls R 300m Kinyarwanda
Apache-2.0
基于facebook/wav2vec2-xls-r-300m在common_voice数据集上微调的卢旺达语语音识别模型
语音识别
Transformers

W
peter2000
13
0
English Filipino Wav2vec2 L Xls R Test 02
Apache-2.0
这是一个基于wav2vec2-large-xlsr-53-english模型在菲律宾语音数据集上微调的语音识别模型,支持英语和菲律宾语的语音转文本任务。
语音识别
Transformers

E
Khalsuu
21
0
W2v2 Kaqchikel
MIT
基于facebook/wav2vec2-xls-r-300m在卡克奇克尔语音频数据上微调的语音识别模型
语音识别
Transformers

其他
W
sil-ai
21
1
Wav2vec2 Large Xls R 300m Guarani Small Wb
Apache-2.0
该模型是基于wav2vec2-large-xls-r-300m架构,在瓜拉尼语(Guarani)语音数据集上微调的自动语音识别(ASR)模型。
语音识别
Transformers

W
jhonparra18
16
0
Wav2vec2 Xlsr Nepali
Apache-2.0
该模型是基于facebook/wav2vec2-large-xlsr-53在尼泊尔语数据集上微调的语音识别模型。
语音识别
W
shishirAI
22
2
Xlm Roberta Base Finetuned Wolof Finetuned Ner Swahili
这是一个基于xlm-roberta-base-finetuned-wolof预训练模型,在马萨卡纳NER数据集斯瓦希里语部分进行微调的命名实体识别模型。
序列标注
Transformers

其他
X
mbeukman
49
0
Indo Roberta Small
MIT
印尼小型RoBERTa是基于RoBERTa模型的掩码语言模型,专门针对印尼语进行训练,适用于文本填充和特征提取任务。
大型语言模型
其他
I
w11wo
50
1
Electra Tagalog Small Uncased Generator
Gpl-3.0
这是一个用于生成合成文本并预训练判别器的ELECTRA模型,专门针对菲律宾语设计。
大型语言模型
Transformers

其他
E
jcblaise
18
0
Xlsr Sg Lm
基于FHNW v1瑞士议会数据集微调的瑞士德语语音识别模型
语音识别
Transformers

其他
X
manifoldix
17
2
Gpt2 Turkish Cased
针对土耳其语文本训练的GPT-2模型,可作为文本生成任务的起点
大型语言模型
其他
G
redrussianarmy
1,060
14
Gpt2 Small Indonesia Fine Tuning Poem
这是一个基于印尼语GPT-2小模型微调的诗歌生成模型,专门用于生成印尼语诗歌。
大型语言模型
Transformers

其他
G
ayameRushia
22
5
Sundanese Roberta Base
MIT
基于RoBERTa架构的巽他语掩码语言模型,在多个数据集上训练而成。
大型语言模型
其他
S
w11wo
32
2
Wav2vec2 Xls R 300m Gn Cv8
Apache-2.0
这是一个基于facebook/wav2vec2-xls-r-300m模型在Common Voice 8数据集上微调的自动语音识别(ASR)模型,支持瓜拉尼语(gn)。
语音识别
Transformers

其他
W
lgris
16
0
Xlm Roberta Base Finetuned Amharic Finetuned Ner Swahili
这是一个标记分类模型(具体为命名实体识别),在阿姆哈拉语微调的XLM-RoBERTa基础模型基础上,针对MasakhaNER数据集的斯瓦希里语部分进行了二次微调。
序列标注
Transformers

其他
X
mbeukman
25
1
Sinhala Gpt2
这是一个基于MC4僧伽罗语数据集训练的小型GPT2模型,适用于僧伽罗语文本生成任务。
大型语言模型
其他
S
keshan
19
1
Gpt2 Small Arabic
基于gpt2-small架构训练的阿拉伯语维基百科数据集GPT2模型,适用于文本生成任务。
大型语言模型
阿拉伯语
G
akhooli
1,066
15
Xlm Roberta Base Finetuned Ner Wolof
针对沃洛夫语进行命名实体识别(NER)任务的标记分类模型,基于xlm-roberta-base在MasakhaNER数据集(沃洛夫语部分)上微调而成
序列标注
Transformers

其他
X
mbeukman
49
0
Sinhalaberto
这是一个基于OSCAR僧伽罗语去重数据集训练的稍小模型,为低资源僧伽罗语提供基础支持。
大型语言模型
其他
S
keshan
34
1
Tibert Base
这是一个针对提格里尼亚语预训练的BERT基础模型,在4000万词符的数据集上进行了40轮预训练。
大型语言模型
其他
T
fgaim
28
1
Xlm Roberta Base Finetuned Swahili Finetuned Ner Swahili
该模型是在MasakhaNER数据集(斯瓦希里语部分)上微调的命名实体识别模型,适用于斯瓦希里语文本中的实体识别任务。
序列标注
Transformers

其他
X
mbeukman
14
1
Gpt2 Small Arabic Poetry
基于gpt2-small-arabic微调的阿拉伯诗歌生成模型,训练数据包含4万首不同时期的阿拉伯诗歌
大型语言模型
阿拉伯语
G
akhooli
33
5
Quberta
基于RoBERTa架构的南克丘亚语(科拉奥和昌卡方言)预训练模型,使用500万token训练
大型语言模型
Transformers

其他
Q
Llamacha
289
1
Mt5 Base Yoruba Adr
基于mT5-base微调的约鲁巴语自动音调恢复模型,在JW300和Menyo-20k数据集上训练
机器翻译
Transformers

M
Davlan
14
0
Wav2vec2 Large Xls R 300m Guarani Colab
Apache-2.0
基于facebook/wav2vec2-xls-r-300m在瓜拉尼语数据集上微调的语音识别模型
语音识别
Transformers

W
FitoDS
19
0
Bangla Bert
基于BERT架构预训练的孟加拉语语言模型,支持掩码语言建模任务
大型语言模型
Transformers

其他
B
Kowsher
17
4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文