Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一个多语言序列到序列模型,支持50种语言的文本摘要和生成任务。
文本生成
Transformers

M
skripsi-summarization-1234
28.54k
0
Moritzlaurer Mdeberta V3 Base Mnli Xnli
MIT
支持100种语言的自然语言推理模型,适用于多语言零样本分类任务
文本分类
支持多种语言
M
MaagDeveloper
47
0
USER2 Base
Apache-2.0
USER2是新一代俄语通用句子编码器,支持长达8,192个token的上下文句子表征,基于RuModernBERT-base构建,针对检索和语义任务优化
文本嵌入
其他
U
deepvk
1,101
11
USER2 Small
Apache-2.0
USER2是新一代俄语通用句子编码器,专为支持长达8,192个token的长上下文句子表征而设计。
文本嵌入
其他
U
deepvk
1,409
6
USER Bge M3
Apache-2.0
俄语通用句子编码器,基于sentence-transformers框架,专门为俄语文本提取1024维稠密向量
文本嵌入
其他
U
deepvk
339.46k
58
Eriberta Base
Apache-2.0
EriBERTa是一个基于海量医学临床语料库预训练的双语领域专用语言模型,在临床领域超越了既往所有西班牙语模型,展现出卓越的医学文本理解与信息提取能力。
大型语言模型
Transformers

支持多种语言
E
HiTZ
728
3
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Labse Ru Sts
MIT
高质量俄语句子嵌入计算BERT模型,基于cointegrated/LaBSE-en-ru优化,适用于语义文本相似度任务
文本嵌入
Transformers

其他
L
sergeyzh
4,650
6
Xlm Roberta Large Ehri Ner All
基于XLM-RoBERTa微调的多语言大屠杀相关命名实体识别模型,支持9种语言,F1值达81.5%。
序列标注
Transformers

支持多种语言
X
ehri-ner
208
3
Tinysolar 248m 4k Py
Apache-2.0
推断信息:这是一个基于Apache-2.0许可证的开源模型,具体功能需要补充说明
大型语言模型
Transformers

T
upstage
86
4
Multilingual Xlm Roberta For Ner
MIT
基于XLM-RoBERTa基础模型微调的命名实体识别模型,支持多语言,能识别地点、组织和人物三类实体。
序列标注
Transformers

M
Tirendaz
56
2
Span Marker Mbert Base Multinerd
这是一个基于MultiNERD数据集训练的多语言命名实体识别模型,支持20多种语言,使用bert-base-multilingual-cased作为底层编码器。
序列标注
TensorBoard

其他
S
tomaarsen
5,591
64
Eng Guj Sim2b
基于facebook/mbart-large-50-many-to-many-mmt微调的英语-古吉拉特语翻译模型
机器翻译
Transformers

E
hopkins
4
0
Umt5 Xxl
Apache-2.0
UMT5是基于mC4多语种语料库预训练的多语言文本生成模型,支持107种语言,采用UniMax采样策略优化语言平衡
大型语言模型
Transformers

支持多种语言
U
google
4,449
32
Umt5 Xl
Apache-2.0
基于mC4多语种语料库预训练的多语言文本生成模型,支持107种语言
大型语言模型
Transformers

支持多种语言
U
google
1,049
17
Umt5 Small
Apache-2.0
基于mC4多语言语料库预训练的统一多语言T5模型,覆盖107种语言
大型语言模型
Transformers

支持多种语言
U
google
17.35k
23
Biencoder Electra Base Mmarcofr
MIT
这是一个用于法语的密集单向量双编码器模型,可用于语义搜索。
文本嵌入
法语
B
antoinelouis
31
2
Distilbert Base Multilingual Cased Sentiments Student
Apache-2.0
这是一个通过零样本蒸馏技术训练的多语言情感分析模型,支持12种语言的情感分类。
文本分类
Transformers

支持多种语言
D
lxyuan
498.23k
283
Ru Bart Large
MIT
这是 facebook/mbart-large-50 的精简版本,仅保留俄语和英语的嵌入向量,词汇表从25万缩减至2.5万。
大型语言模型
Transformers

支持多种语言
R
sn4kebyt3
83
9
Ernie M Large Mnli Xnli
Apache-2.0
支持100种语言的自然语言推理模型,适用于多语言零样本分类任务
大型语言模型
Transformers

支持多种语言
E
MoritzLaurer
94
18
Ernie M Base Mnli Xnli
Apache-2.0
这是一款支持100种语言的多语言模型,专为自然语言推理(NLI)和零样本分类任务设计,基于百度ERNIE-M架构,在XNLI和MNLI数据集上微调。
大型语言模型
Transformers

支持多种语言
E
MoritzLaurer
29
3
Multilingual MiniLMv2 L12 Mnli Xnli
MIT
支持100多种语言的多语言自然语言推理模型,适用于零样本分类任务
文本分类
Transformers

支持多种语言
M
MoritzLaurer
245
6
Xlm V Base Mnli Xnli
MIT
基于XLM-V-base的多语言自然语言推理模型,支持116种语言的零样本分类任务
大型语言模型
Transformers

支持多种语言
X
MoritzLaurer
293
22
Multilingual Bert Finetuned Xquad
Apache-2.0
基于bert-base-multilingual-cased模型在xquad数据集上微调的多语言问答模型
问答系统
Transformers

M
ritwikm
24
0
Persian Xlm Roberta Large
基于XLM-RoBERTA多语言预训练模型,在波斯语问答数据集PQuAD上微调的问答模型
问答系统
Transformers

P
pedramyazdipoor
77
3
Mdeberta V3 Base Xnli Multilingual Nli 2mil7
MIT
基于mDeBERTa-v3-base的多语言自然语言推理模型,支持100种语言的零样本分类
大型语言模型
Transformers

支持多种语言
M
MoritzLaurer
186.62k
316
Mbart Large 50 Finetuned V1
基于mbart-large-50架构的微调模型,适用于多语言摘要生成任务
大型语言模型
Transformers

M
z-rahimi-r
14
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的跨语言模型,主要用于命名实体识别任务。
大型语言模型
Transformers

X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基于XLM-RoBERTa-base模型在特定数据集上微调的版本,主要用于序列标注任务,评估F1分数为0.8561。
大型语言模型
Transformers

X
huangjia
29
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base在多语言数据集上微调的命名实体识别模型
大型语言模型
Transformers

X
flood
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的跨语言模型
大型语言模型
Transformers

X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基于xlm-roberta-base在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
dfsj
15
0
Hiner Original Xlm Roberta Large
该模型是基于XLM-RoBERTa-large架构在HiNER-original数据集上训练的命名实体识别模型,专门用于标记分类任务。
序列标注
Transformers

H
cfilt
56
1
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型
序列标注
Transformers

X
davidenam
27
0
Roberta Large Wechsel Ukrainian
MIT
基于WECHSEL方法迁移至乌克兰语的RoBERTa-large模型,在NER和词性标注任务上表现优异
大型语言模型
Transformers

其他
R
benjamin
75
0
Roberta Finetuned Ner
MIT
基于xlm-roberta-base微调的命名实体识别(NER)模型,在评估集上表现出色(F1值0.9777)
序列标注
Transformers

R
kSaluja
25
0
Xlm Roberta Base Finetuned Panx De
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的德语标记分类模型,用于命名实体识别任务。
序列标注
Transformers

X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的版本,主要用于命名实体识别任务。
大型语言模型
Transformers

X
osanseviero
14
0
Xlm Roberta Base Ft Udpos28 Ro
Apache-2.0
基于XLM-RoBERTa的多语言词性标注模型,在通用依存关系数据集v2.8上微调,特别优化了罗马尼亚语性能
序列标注
Transformers

其他
X
wietsedv
14
1
Xlm Roberta Base Ft Udpos28 Cy
Apache-2.0
基于XLM-RoBERTa的多语言词性标注模型,在通用依存关系库v2.8上微调,特别针对威尔士语优化
序列标注
Transformers

其他
X
wietsedv
15
0
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文