Distilbert Base Multilingual Sentiment
Apache-2.0
基于 DistilBERT 的多语言情感分析模型,适用于多种语言的文本情感分类任务。
大型语言模型
Transformers

D
louaysboui
24
1
Mixtex Finetune
MIT
MixTex base_ZhEn 是一个支持中文和英语的图像转文本模型,基于MIT许可证发布。
图像生成文本
支持多种语言
M
wzmmmm
27
0
Drama Large Xnli Anli
基于facebook/drama-large在XNLI和ANLI数据集上微调的零样本分类模型,支持15种语言的自然语言推理任务。
大型语言模型
支持多种语言
D
mjwong
23
0
Openbuddy Deepseek 10b V17.1 4k GGUF
其他
OpenBuddy/openbuddy-deepseek-10b-v17.1-4k的GGUF格式模型文件,支持多种语言,适用于文本生成任务。
大型语言模型
支持多种语言
O
tensorblock
81
1
Armenian Text Embeddings 1
基于multilingual-e5-base优化的亚美尼亚语文本嵌入模型,支持语义搜索和跨语言理解
文本嵌入
Transformers

支持多种语言
A
Metric-AI
578
18
Madlad400 7b Mt Bt Q4 K M GGUF
Apache-2.0
一个支持超过150种语言的多语言处理模型,适用于多种自然语言处理任务。
大型语言模型
支持多种语言
M
brauliobo
22
1
Opus Mt Tc Bible Big Deu Eng Fra Por Spa Mul
Apache-2.0
支持超过100种语言的通用Transformer模型,适用于多种自然语言处理任务
大型语言模型
Transformers

支持多种语言
O
Helsinki-NLP
203
1
Llama 3 EZO VLM 1
基于 Llama-3-8B-Instruct 的日语视觉语言模型,通过额外预训练和指令调优增强日语能力
图像生成文本
日语
L
AXCXEPT
19
7
Suzume Llama 3 8B Multilingual
其他
Suzume 8B是基于Llama 3的多语言微调版本,在近90,000个多语言对话上进行训练,增强了多语言交流能力,同时保持了Llama 3的智能水平。
大型语言模型
Transformers

S
lightblue
9,494
112
Madlad400 3b Mt
Apache-2.0
一个支持超过100种语言的多语言处理模型,适用于多种自然语言处理任务。
大型语言模型
支持多种语言
M
google
7,035
119
Madlad400 8b Lm
Apache-2.0
一个支持超过200种语言的多语言处理模型,适用于多种自然语言处理任务。
大型语言模型
支持多种语言
M
jbochi
71
8
Madlad400 10b Mt
Apache-2.0
一个支持超过150种语言的多语言处理模型,适用于各种自然语言处理任务。
大型语言模型
支持多种语言
M
jbochi
120
18
Madlad400 7b Mt Bt
Apache-2.0
一个支持超过200种语言的通用语言模型,适用于多种自然语言处理任务。
大型语言模型
支持多种语言
M
jbochi
88
7
Madlad400 7b Mt
Apache-2.0
这是一个支持超过150种语言的通用模型,适用于多种自然语言处理任务。
大型语言模型
支持多种语言
M
jbochi
507
6
Serengeti E250
SERENGETI是一个覆盖517种非洲语言及方言的大规模多语言预训练模型,专注于填补非洲语言技术资源匮乏的空白。
大型语言模型
Transformers

其他
S
UBC-NLP
42
6
Fillmaskmodel
MIT
基于xlm-roberta-base微调的填充掩码模型,用于预测被遮蔽的文本片段
大型语言模型
Transformers

F
Okyx
46
1
XLM RoBERTa Xtreme En
MIT
基于xlm-roberta-base在xtreme_en数据集上微调的标记分类模型,支持多语言文本处理。
序列标注
Transformers

X
arize-ai
5
0
Bloom 3b
Openrail
BLOOM 是一个多语言大语言模型,支持46种语言,专注于文本生成任务。
大型语言模型
Transformers

支持多种语言
B
bigscience
11.82k
92
Mt5 M2o Chinese Simplified Crosssum
基于CrossSum数据集微调的mT5多对一模型,能够用中文(简体)总结多种语言编写的文本
文本生成
Transformers

支持多种语言
M
csebuetnlp
43
20
Xquad Th Mbert Base
基于多语言BERT的泰语抽取式问答模型,能区分大小写,适用于泰语问答任务。
问答系统
Transformers

X
zhufy
16
0
Mt5 Large Finetuned Mnli Xtreme Xnli
Apache-2.0
基于多语言T5模型微调,专为零样本文本分类任务设计,支持15种语言
大型语言模型
Transformers

支持多种语言
M
alan-turing-institute
964
13
Mminilmv2 L12 H384 Distilled From XLMR Large
MiniLMv2是微软研究院推出的轻量级多语言预训练模型,基于Transformer架构,适用于多种自然语言处理任务。
大型语言模型
Transformers

M
nreimers
21.39k
17
Tf Xlm Roberta Large
XLM-RoBERTa是一个大规模跨语言句子编码器,基于100种语言的2.5TB数据训练,在多项跨语言基准测试中表现优异。
大型语言模型
Transformers

T
jplu
236
1
Tf Xlm Roberta Base
XLM-RoBERTa是一种跨语言句子编码器的扩展版本,基于100种语言的2.5T数据训练,在多项跨语言基准测试中表现优异。
大型语言模型
Transformers

T
jplu
4,820
1
Xlm Roberta Comet Small
mMiniLM-L12xH384 XLM-R 是一个轻量化的多语言预训练模型,基于 MiniLMv2 架构,通过关系蒸馏技术压缩了传统 XLM-RoBERTa 模型。
大型语言模型
Transformers

X
Unbabel
45
2
Xlm Roberta Base Finetuned Marc En
MIT
基于xlm-roberta-base在亚马逊多语言评论数据集上微调的文本分类模型
文本分类
Transformers

X
lewtun
16
0
Xlm Roberta Base Finetuned Marc En J Run
MIT
基于xlm-roberta-base在亚马逊多语言评论数据集上微调的文本分类模型
文本分类
Transformers

X
jx88
13
0
Cino Base V2
Apache-2.0
CINO是针对中国少数民族语言的多语言预训练模型,支持中文及7种少数民族语言,基于XLM-R框架构建。
大型语言模型
Transformers

支持多种语言
C
hfl
156
5
Muril Adapted Local
Apache-2.0
MuRIL是谷歌开源的基于17种印度语言及其转写版本预训练的BERT模型,支持多语言表示。
大型语言模型
支持多种语言
M
monsoon-nlp
24
2
Canine C
Apache-2.0
CANINE-c是一个在多语言文本上预训练的字符级编码模型,无需显式标记化处理,直接操作Unicode字符。
大型语言模型
Transformers

支持多种语言
C
google
191.50k
32
Xlm Roberta Base Finetuned Marc
MIT
基于xlm-roberta-base在亚马逊多语言评论数据集上微调的文本分类模型
文本分类
Transformers

X
begar
9
0
Bert Base Multilingual Uncased Finetuned
基于bert-base-multilingual-uncased微调的模型,具体用途未明确说明
大型语言模型
Transformers

B
am-shb
16
0
Bert Base Multilingual Xquad
基于bert-base-multilingual-uncased的多语言问答模型,在XQuAD数据集上微调
问答系统
Transformers

其他
B
alon-albalak
24
0
Distilbert Base 25lang Cased
Apache-2.0
这是distilbert-base-multilingual-cased的小型版本,支持25种语言,保持了原始模型的准确性。
大型语言模型
Transformers

支持多种语言
D
Geotrend
80
1
Bert Base En Ru Cased
Apache-2.0
基于bert-base-multilingual-cased定制的精简版本,支持英语和俄语,保持原始模型的表征输出和准确度。
大型语言模型
其他
B
Geotrend
17
0
Xlm Mlm 17 1280
XLM模型是基于17种语言文本训练的跨语言预训练模型,采用掩码语言建模(MLM)目标
大型语言模型
Transformers

支持多种语言
X
FacebookAI
201
2
Bert Base Ukr Eng Rus Uncased
这是bert-base-multilingual-uncased的精简版本,仅保留词汇表中的乌克兰语、英语和俄语标记。
大型语言模型
Transformers

B
mshamrai
84
0
Bert Base En Fr Nl Ru Ar Cased
Apache-2.0
这是bert-base-multilingual-cased的精简版本,专门支持英语、法语、荷兰语、俄语和阿拉伯语,保持原始模型的准确率。
大型语言模型
其他
B
Geotrend
22
0
Bert Base En Fr Es De Zh Cased
Apache-2.0
支持英语、法语、西班牙语、德语、中文的BERT基础版,是bert-base-multilingual-cased的轻量版本
大型语言模型
其他
B
Geotrend
20
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文