Multilingual Albert Base Cased 128k
Apache-2.0
基于掩码语言建模(MLM)目标预训练的多语言ALBERT模型,支持60+种语言,具有参数共享的轻量级架构
大型语言模型
Transformers

支持多种语言
M
cservan
277
2
Multilingual Albert Base Cased 32k
Apache-2.0
基于掩码语言建模目标预训练的多语言ALBERT模型,支持50+种语言,区分大小写
大型语言模型
Transformers

支持多种语言
M
cservan
243
2
Umt5 Xxl
Apache-2.0
UMT5是基于mC4多语种语料库预训练的多语言文本生成模型,支持107种语言,采用UniMax采样策略优化语言平衡
大型语言模型
Transformers

支持多种语言
U
google
4,449
32
Umt5 Xl
Apache-2.0
基于mC4多语种语料库预训练的多语言文本生成模型,支持107种语言
大型语言模型
Transformers

支持多种语言
U
google
1,049
17
Umt5 Small
Apache-2.0
基于mC4多语言语料库预训练的统一多语言T5模型,覆盖107种语言
大型语言模型
Transformers

支持多种语言
U
google
17.35k
23
Codegen 350m Html
Bsd-3-clause
CodeGen-HTML 350M是基于CodeGen-Multi 350M微调的自回归语言模型,专门用于HTML代码生成。
大型语言模型
Transformers

其他
C
alecsharpie
132
14
Infoxlm German Question Answering
基于InfoXLM-large微调的德语问答系统模型,在GermanQuAD和SQuAD数据集上训练
问答系统
Transformers

德语
I
svalabs
145
3
Persian Xlm Roberta Large
基于XLM-RoBERTA多语言预训练模型,在波斯语问答数据集PQuAD上微调的问答模型
问答系统
Transformers

P
pedramyazdipoor
77
3
Xlm Roberta Base Finetuned Panx Fr
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的法语标记分类模型
序列标注
Transformers

X
andreaschandra
16
0
Mt5 Base Dacsa Es
该模型是基于mT5基础模型针对西班牙语文本摘要任务进行微调的版本,特别适用于新闻文章的摘要生成。
文本生成
Transformers

西班牙语
M
ELiRF
154
2
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
novarac23
17
0
Wav2vec2 Large Xlsr 53 Toy Train Data Augment 0.1.csv
Apache-2.0
该模型是基于facebook/wav2vec2-base微调的语音识别模型,使用数据增强技术训练
语音识别
Transformers

W
scasutt
22
0
Tf Xlm Roberta Base
XLM-RoBERTa是一种跨语言句子编码器的扩展版本,基于100种语言的2.5T数据训练,在多项跨语言基准测试中表现优异。
大型语言模型
Transformers

T
jplu
4,820
1
Wav2vec2 Base 10k Voxpopuli Ft Cs
基于Facebook Wav2Vec2架构的语音识别模型,使用VoxPopuli语料库的10K未标记捷克语数据进行预训练,并在捷克语转录数据上微调。
语音识别
Transformers

其他
W
facebook
226
0
Wav2vec2 Base 10k Voxpopuli Ft Nl
基于Facebook Wav2Vec2架构的语音识别模型,在VoxPopuli语料库的10K未标记荷兰语数据上预训练,并在荷兰语转录数据上微调。
语音识别
Transformers

其他
W
facebook
28
0
Wav2vec2 Base 10k Voxpopuli Ft Pl
基于VoxPopuli语料库10K未标注数据预训练,并在波兰语转录数据上微调的Wav2Vec2语音识别模型
语音识别
Transformers

其他
W
facebook
203
3
Cino Base V2
Apache-2.0
CINO是针对中国少数民族语言的多语言预训练模型,支持中文及7种少数民族语言,基于XLM-R框架构建。
大型语言模型
Transformers

支持多种语言
C
hfl
156
5
Phoneme Test 5 Sv
Apache-2.0
该模型是基于facebook/wav2vec2-xls-r-300m在MULTILINGUAL_LIBRISPEECH - 德语10小时数据集上微调的版本,用于德语语音识别任务。
语音识别
Transformers

P
patrickvonplaten
17
0
Wav2vec2 Xlsr Multilingual 53 Fa
基于wav2vec 2.0架构的多语言语音识别模型,专门针对波斯语进行微调,显著降低词错误率
语音识别
Transformers

W
masoudmzb
83
7
Wav2vec2 Base 10k Voxpopuli Ft Sk
基于VoxPopuli语料库10K未标注数据预训练,并在斯洛伐克语转录数据上微调的语音识别模型
语音识别
Transformers

其他
W
facebook
39
1
Wav2vec2 Base 10k Voxpopuli Ft Fi
基于Facebook Wav2Vec2基础模型,在VoxPopuli语料库的10K未标注子集上预训练,并在芬兰语转录数据上微调的自动语音识别模型。
语音识别
Transformers

其他
W
facebook
24
0
Wav2vec2 Large Xlsr Turkish Demo
该模型是基于土耳其语Common Voice数据集微调的XLSR-Wav2Vec2语音识别模型,主要用于土耳其语语音转文本任务。
语音识别
W
patrickvonplaten
18
0
Mbart Large 50 Many To Many Mmt
基于mBART-large-50微调的多语言机器翻译模型,支持50种语言间的互译
机器翻译
支持多种语言
M
facebook
404.66k
357
Xlm Roberta Base English Upos
基于XLM-RoBERTa的英语词性标注和依存句法分析模型
序列标注
Transformers

支持多种语言
X
KoichiYasuoka
21
2
Xlm Roberta Large Finetuned Conll02 Spanish
基于XLM-RoBERTa-large模型在西班牙语CoNLL-2002数据集上微调的命名实体识别模型
序列标注
支持多种语言
X
FacebookAI
244
2
Xlm Mlm 17 1280
XLM模型是基于17种语言文本训练的跨语言预训练模型,采用掩码语言建模(MLM)目标
大型语言模型
Transformers

支持多种语言
X
FacebookAI
201
2
Xlm Roberta Large Ner Spanish
基于XLM-Roberta-large架构微调的西班牙语命名实体识别模型,在CoNLL-2002数据集上表现优异。
序列标注
Transformers

西班牙语
X
MMG
767.35k
29
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
5.3M
431
Xlm Roberta Large Finetuned Conll03 German
基于XLM-RoBERTa-large模型在德语CoNLL-2003数据集上微调的多语言命名实体识别模型
序列标注
支持多种语言
X
FacebookAI
18.52k
13
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文