文本推理
Deberta V3 Large Mnli Fever Anli Ling Wanli Binary
MIT
该模型是基于DeBERTa-v3-large架构的零样本分类模型,主要在五个NLI数据集上训练,适用于遵循原始NLI任务的任务。
文本分类
Transformers
英语
D
MoritzLaurer
30
0
Deberta V3 Base Mnli Fever Anli Ling Wanli Binary
MIT
该模型是基于五个NLI数据集训练的文本分类模型,主要用于零样本分类任务,作为比较基准使用。
文本分类
Transformers
英语
D
MoritzLaurer
20
0
T5 Small Finetuned Contradiction
Apache-2.0
基于T5-small架构在SNLI数据集上微调的文本生成模型,专注于矛盾关系识别和摘要生成任务
文本生成
Transformers
T
domenicrosati
21
2
Qnli Distilroberta Base
Apache-2.0
该模型是基于distilroberta-base训练的交叉编码器,用于判断给定段落是否能回答特定问题,在GLUE QNLI数据集上训练。
问答系统
英语
Q
cross-encoder
1,526
0
Ko Gpt Trinity 1.2B V0.5
基于GPT-3架构的12亿参数韩语Transformer模型,由SK电讯开发,主要用于韩语文本生成和理解任务。
大型语言模型
Transformers
韩语
K
skt
1,294
44
Albert Large V2 Finetuned Rte
Apache-2.0
该模型是基于ALBERT-large-v2在GLUE RTE任务上微调的文本分类模型,用于识别文本蕴含关系。
文本分类
Transformers
A
anirudh21
22
0
Distilbart Mnli 12 1
DistilBart-MNLI 是通过无教师蒸馏技术从 bart-large-mnli 蒸馏得到的精简版本,保持了较高的准确率同时模型更小。
文本分类
D
valhalla
217.48k
52
Distilbart Mnli 12 3
DistilBart-MNLI 是 bart-large-mnli 的蒸馏版本,采用无教师蒸馏技术,性能接近原模型但更轻量。
文本分类
D
valhalla
8,791
19
Distilbart Mnli 12 9
DistilBart-MNLI 是通过无教师蒸馏技术从 bart-large-mnli 蒸馏得到的轻量级版本,保持了较高的准确率同时减少了模型复杂度。
文本分类
D
valhalla
8,343
12
Distilbart Mnli 12 6
DistilBart-MNLI 是 BART-large-MNLI 的蒸馏版本,采用无教师蒸馏技术,在保持高性能的同时显著减小模型规模。
文本分类
D
valhalla
49.63k
11
V3 Large Mnli
MIT
基于DeBERTa-v3-large微调的MNLI任务模型,在GLUE MNLI评估集上达到91.75%准确率
文本分类
Transformers
英语
V
NDugar
61
1
Roberta Base Bne Finetuned Hate Speech Offensive Spanish
Apache-2.0
该模型是基于BSC-TeMU/roberta-base-bne在MNLI数据集上微调的版本,主要用于自然语言推理任务。
文本分类
Transformers
R
JonatanGk
240
2