DeBERTa架构
Nli Implementation
基于DeBERTa-v3-base的零样本文本分类模型,用于判断前提和假设之间的逻辑关系(蕴含、中性或矛盾)。
文本分类
英语
N
startificial
255
0
Ai Text Detector Academic V1.01
MIT
基于DeBERTa-v3-large微调的AI生成文本检测模型,专为学术场景优化
文本分类
Transformers
英语
A
desklib
255
3
Camembertav2 Base
MIT
CamemBERTav2是基于2750亿法语文本标记预训练的法语语言模型,采用DebertaV2架构,在多个法语NLP任务上表现优异。
大型语言模型
Transformers
法语
C
almanach
2,972
19
Mdeberta V3 Base Sentiment
MIT
基于mDeBERTa-v3-base微调的多语言文本情感分类模型,支持跨语言情感分析
文本分类
Safetensors
其他
M
agentlans
101
1
Cyner 2.0 DeBERTa V3 Base
MIT
CyNER 2.0是专为网络安全领域设计的命名实体识别模型,基于DeBERTa架构,可识别多种网络安全相关实体。
序列标注
Transformers
英语
C
PranavaKailash
164
2
Zeroshot Classification De
MIT
基于DeBERTa-v3-base微调的德语零样本分类模型,适用于多标签分类任务
文本分类
Transformers
德语
Z
michaelp11
46
1
Kf Deberta Base
MIT
KF-DeBERTa是由KakaoBank与FNGuid联合发布的金融领域专用语言模型,基于DeBERTa-v2架构构建,在通用和金融领域下游任务中均表现优异。
大型语言模型
Transformers
韩语
K
kakaobank
783
46
Deberta V3 Japanese Xsmall
基于日语资源训练的DeBERTa V3模型,专为日语优化,推理时不依赖形态分析器
大型语言模型
Transformers
日语
D
globis-university
96
4
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一个面向巴西葡萄牙语的基础大语言模型,属于BERT家族的编码器,基于Transformer神经网络架构,并在DeBERTa模型基础上开发。
大型语言模型
Transformers
其他
A
PORTULAN
131
7
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPT 是一个面向欧洲葡萄牙语(葡萄牙)的基础大语言模型,属于BERT家族的编码器,基于Transformer神经网络架构,并在DeBERTa模型基础上开发。
大型语言模型
Transformers
其他
A
PORTULAN
171
4
Deberta V2 Base Japanese Finetuned QAe
MIT
基于deberta-v2-base-japanese微调的日语问答模型,使用DDQA数据集进行微调,适用于问答任务。
问答系统
Transformers
日语
D
Mizuiro-sakura
73
3
Deberta V2 Base Japanese
基于日语维基百科、CC-100和OSCAR语料预训练的日语DeBERTa V2基础模型,适用于掩码语言建模和下游任务微调。
大型语言模型
Transformers
日语
D
ku-nlp
38.93k
29
Deberta Sentence Transformer
这是一个基于DeBERTa架构的句子转换器模型,能够将句子和段落映射到768维的密集向量空间,适用于语义搜索和聚类等任务。
文本嵌入
Transformers
D
embedding-data
825
5
Deberta Base Japanese Wikipedia
基于日语维基百科和青空文库文本预训练的DeBERTa(V2)模型,适用于日语文本处理任务
大型语言模型
Transformers
日语
D
KoichiYasuoka
32
2
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
基于DeBERTa-base架构的问答模型,在SQuAD1、AQA和NewsQA数据集上联合微调
问答系统
Transformers
D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
该模型是基于DeBERTa-base在SQuAD问答数据集上微调的版本,用于自动问答任务
问答系统
Transformers
D
stevemobs
14
0
Deberta Base Finetuned Aqa
MIT
基于microsoft/deberta-base在adversarial_qa数据集上微调的问答模型
问答系统
Transformers
D
stevemobs
15
0
Deberta Base Finetuned Squad1 Aqa
MIT
该模型是基于DeBERTa-base在SQuAD1数据集上微调后,又在adversarial_qa数据集上进一步微调的问答模型。
问答系统
Transformers
D
stevemobs
15
0
Nbme Deberta Large
MIT
基于microsoft/deberta-large微调的模型,用于特定任务处理
大型语言模型
Transformers
N
smeoni
136
0
Nli Deberta V3 Large
Apache-2.0
基于microsoft/deberta-v3-large架构的交叉编码器模型,用于自然语言推理任务,在SNLI和MultiNLI数据集上训练。
文本分类
Transformers
英语
N
navteca
24
3
Nli Deberta V3 Xsmall
Apache-2.0
基于microsoft/deberta-v3-xsmall训练的交叉编码器模型,用于自然语言推理任务,支持矛盾、蕴含和中立三种关系的判断。
文本分类
Transformers
英语
N
navteca
1,085
1
Deberta V3 Large Finetuned Mnli
MIT
在GLUE MNLI数据集上微调的DeBERTa-v3-large模型,用于自然语言推理任务,验证集准确率达90%
文本分类
Transformers
英语
D
mrm8488
31
2
Nli Deberta V3 Large
Apache-2.0
基于DeBERTa-v3-large架构的自然语言推理模型,在SNLI和MultiNLI数据集上训练,用于判断句子对之间的关系。
文本分类
Transformers
英语
N
cross-encoder
203.73k
31
Deberta Base Fine Tuned Ner
MIT
基于DeBERTa-base模型在conll2003数据集上微调的命名实体识别(NER)模型
序列标注
Transformers
D
geckos
456
2
Nli Deberta V3 Xsmall
Apache-2.0
基于microsoft/deberta-v3-xsmall训练的交叉编码器模型,用于自然语言推理任务
文本分类
Transformers
英语
N
cross-encoder
16.62k
6
Deberta V3 Base Goemotions
MIT
基于microsoft/deberta-v3-base微调的文本情感分类模型,在未知数据集上训练,评估F1分数为0.4468
文本分类
Transformers
D
mrm8488
81
1
Nli Deberta V3 Small
Apache-2.0
基于microsoft/deberta-v3-small训练的交叉编码器模型,用于自然语言推理任务,支持矛盾、蕴含和中立三种关系判断
文本分类
Transformers
英语
N
cross-encoder
2,197
10
Deberta V3 Large Sst2 Train 8 9
MIT
基于microsoft/deberta-v3-large模型在SST-2数据集上微调的文本分类模型
文本分类
Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 16 4
MIT
基于microsoft/deberta-v3-large模型在SST-2数据集上微调的情感分析模型
文本分类
Transformers
D
SetFit
18
0
Deberta V3 Large Sst2 Train 8 8
MIT
基于microsoft/deberta-v3-large模型在SST-2数据集上微调的情感分析模型
文本分类
Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 8 1
MIT
基于microsoft/deberta-v3-large微调的文本分类模型,在SST-2数据集上进行训练
文本分类
Transformers
D
SetFit
17
0