低资源语言处理
Mbart50 Saraiki News Summarization
MIT
基于mBART-50多语言模型微调的萨拉基语新闻摘要模型,支持从萨拉基语新闻内容生成简洁摘要
文本生成
Transformers
其他
M
SaraikiAI
22
0
Aidman Wav2vec2 Large Xls R 300m Irish Colab
Apache-2.0
这是一个基于facebook/wav2vec2-xls-r-300m在通用语音数据集上微调的语音识别模型,支持爱尔兰语。
语音识别
Transformers
A
AIDman
110
0
Unt 8b
Apache-2.0
骆驼模型是一个基于变换器架构的文本生成模型,支持阿塞拜疆语,采用强化学习进行训练。
大型语言模型
Transformers
其他
U
omar07ibrahim
33
2
Whisper Fleurs Small Te In
Apache-2.0
该模型是基于OpenAI的Whisper Small在FLEURS数据集上微调的版本,专注于语音识别任务,支持泰卢固语(te)。
语音识别
Transformers
其他
W
jonahdvt
14
1
Mt5 Sinhala News Finetunedv3
基于Google的mT5-small模型在僧伽罗语新闻数据上微调的文本摘要模型
文本生成
Transformers
其他
M
kbrinsly7
159
0
Kyrgyzbert
Apache-2.0
基于BERT架构的小规模语言模型,专为吉尔吉斯语自然语言处理应用设计。
大型语言模型
Transformers
其他
K
metinovadilet
79
2
Bodo Bart Large Summ
Apache-2.0
该模型是基于facebook/bart-large在Bodo法律摘要数据集上微调的文本摘要生成模型
文本生成
Transformers
B
Mwnthai
19
1
Roberta Uz
MIT
基于XLM-RoBERTa-large微调的乌兹别克语命名实体识别模型,支持21种实体类型识别
序列标注
Transformers
其他
R
mustafoyev202
21
1
Whisper Base Pl
Apache-2.0
基于OpenAI Whisper-base模型在波兰语Common Voice 17.0数据集上微调的语音识别模型
语音识别
Transformers
其他
W
marcsixtysix
27
1
Mt5 Large HuAMR
Apache-2.0
基于google/mt5-large在匈牙利语AMR数据集上微调的抽象意义表示解析器
大型语言模型
Transformers
其他
M
SZTAKI-HLT
33
1
Turkish Medical Question Answering
MIT
基于BERT架构微调的土耳其语医疗领域问答模型,专门用于从医疗文本中提取答案
问答系统
Transformers
其他
T
kaixkhazaki
20
1
Shark Finetuned Kde4 Ar En
Apache-2.0
基于Helsinki-NLP/opus-mt-ar-en在kde4数据集上微调的阿拉伯语到英语翻译模型
机器翻译
Transformers
S
ahmedshark
22
1
Opus Mt Tc Bible Big Deu Eng Fra Por Spa Mul
Apache-2.0
支持超过100种语言的通用Transformer模型,适用于多种自然语言处理任务
大型语言模型
Transformers
支持多种语言
O
Helsinki-NLP
203
1
Romaneng2nep V3
Apache-2.0
该模型是基于google/mt5-small微调的罗马化尼泊尔语到尼泊尔语文本的转换模型
机器翻译
Transformers
支持多种语言
R
syubraj
29
1
Bntqa Mbart
MIT
BnTQA-mBart 是一个基于 mBART 架构的低资源孟加拉语表格问答模型,专门用于处理孟加拉语的结构化表格数据问题回答任务。
问答系统
其他
B
vaishali
17
0
Bert Base Turkish Uncased Ner
MIT
基于dbmdz/bert-base-turkish-uncased微调的土耳其语命名实体识别模型
序列标注
Transformers
其他
B
saribasmetehan
54
5
Shlm Grc En
MIT
该模型为古希腊语和英语文本创建共享向量空间中的句子嵌入,基于改进的HLM架构并通过多语言知识蒸馏方法训练。
文本嵌入
Transformers
支持多种语言
S
kevinkrahn
62
2
Mms Tts Div Finetuned Md F02
这是一个基于Transformer架构的语音模型,支持马尔代夫语(Dhivehi)的语音处理任务。
大型语言模型
Transformers
其他
M
alakxender
28
0
Mt5 XLSUM Ua News
基于mT5多语言大模型在乌克兰语新闻数据集上微调的标题生成模型,能够为乌克兰语新闻文章生成简洁准确的标题。
文本生成
Transformers
其他
M
yelyah
110
1
Whisper Large V3 Telugu Romanized
Apache-2.0
基于openai/whisper-large-v3微调的罗马化泰卢固语语音识别模型
语音识别
Transformers
其他
W
jayasuryajsk
18
1
Health Qa Myanmar Mgpt Finetune V2
这是一个基于Transformer架构的缅甸语文本生成模型,支持多种文本生成任务。
大型语言模型
Transformers
其他
H
Turtle344
26
1
Kubert Central Kurdish BERT Model
KuBERT是基于BERT框架的中库尔德语模型,旨在解决库尔德语资源匮乏问题,提升计算语言学能力。
大型语言模型
Transformers
K
asosoft
128.71k
5
Whisper Sinhala Audio To Text
Apache-2.0
基于openai/whisper-small微调的僧伽罗语语音识别模型,支持将僧伽罗语语音转换为文本。
语音识别
Transformers
W
AqeelShafy7
229
2
Urdu Emotions Whisper Medium
Apache-2.0
基于Whisper-medium微调的乌尔都语情感识别模型,在评估集上准确率达91.67%
音频分类
Transformers
U
Pak-Speech-Processing
43
0
Mizbert
Apache-2.0
MizBERT是基于米佐语文本语料库预训练的掩码语言模型(MLM),采用BERT架构,能有效学习米佐语词汇的上下文表征。
大型语言模型
Transformers
M
robzchhangte
36
3
Whisper Small Kyrgyz
基于Whisper架构的吉尔吉斯语自动语音识别(ASR)模型,由吉尔吉斯共和国总统下属国家语言与语言政策全国委员会支持开发
语音识别
Transformers
其他
W
UlutSoftLLC
841
4
Gibberish Sentence Detection Model Tr
MIT
该模型基于BERT架构微调,用于检测土耳其语中的无意义文本(如随机字符组合)。
文本分类
Transformers
其他
G
TURKCELL
40
6
English To Urdu Translation Mbart
这是一个针对英语到乌尔都语翻译任务微调的mBART模型,基于facebook/mbart-large-50架构,在定制数据集上训练完成。
机器翻译
Transformers
支持多种语言
E
abdulwaheed1
106
2
Mt5 Small Amharic Text Summaization
Apache-2.0
基于google/mt5-small微调的阿姆哈拉语文本摘要模型,适用于新闻文章标题生成任务。
文本生成
Transformers
M
yohannesahunm
61
0
Nllb 200 3.3B Ct2 Int8
一个支持超过100种语言和文字系统的多语言处理模型,涵盖从主流语言到多种方言和少数民族语言
大型语言模型
Transformers
支持多种语言
N
OpenNMT
65
5
Mmlw Roberta Base
Apache-2.0
基于RoBERTa架构的波兰语句子嵌入模型,专注于句子相似度计算和特征提取任务。
文本嵌入
Transformers
其他
M
sdadas
106.30k
3
Nllb Clip Base Siglip
NLLB-CLIP-SigLIP 是一个结合了NLLB模型的文本编码器和SigLIP模型的图像编码器的多语言视觉语言模型,支持201种语言。
文本生成图像
N
visheratin
478
1
Glotlid
Apache-2.0
一个支持多种语言的模型,特别关注非洲、亚洲和欧洲的少数民族语言。
大型语言模型
支持多种语言
G
cis-lmu
12.20k
61
Serengeti E250
SERENGETI是一个覆盖517种非洲语言及方言的大规模多语言预训练模型,专注于填补非洲语言技术资源匮乏的空白。
大型语言模型
Transformers
其他
S
UBC-NLP
42
6
M2m100 1.2B Ft Ru Kbd 63K
MIT
基于facebook/m2m100_1.2B模型在俄语-卡巴尔达语数据集上微调的翻译模型
机器翻译
Transformers
其他
M
anzorq
39
1
Sinhala Roberta Sentence Transformer
这是一个基于sentence-transformers的模型,用于将僧伽罗语句子映射到768维向量空间,支持句子相似度计算和语义搜索等任务。
文本嵌入
Transformers
S
Ransaka
16
0
Eng Nah Svo Translation
这是一个基于未知数据集从头开始训练的翻译模型,支持英语到纳瓦特尔语的翻译任务。
机器翻译
Transformers
E
aatherton2024
16
0
MLEAFIT Es2ptt5
Apache-2.0
这是一个基于T5-small架构微调的西班牙语到葡萄牙语翻译模型,在tatoeba数据集上训练,评估BLEU得分为11.2994。
机器翻译
Transformers
M
jdmartinev
38
1
Bodo Roberta Base
MIT
这是一个基于RoBERTa架构的博多语配置模型,包含博多语的字节级BPE分词器和RoBERTa基础配置。
大型语言模型
Transformers
B
alayaran
26
1
Whisper Small Haitian
Apache-2.0
该模型是基于whisper-small-cv11-french微调的版本,针对海地克里奥尔语进行优化的语音识别模型
语音识别
Transformers
W
YassineKader
18
2