文本情感分析
Sentiment Analysis Model
Apache-2.0
基于DistilBERT的轻量级情感分析模型,适用于文本情感分类任务
文本分类
Transformers
S
Freakid
31
1
Distilbert Base Uncased Finetuned Imdb
Apache-2.0
基于distilbert-base-uncased模型在IMDB数据集上微调的文本分类模型
大型语言模型
Transformers
D
harshhmaniya
43
1
Deberta V3 Nli Onnx Quantized
Apache-2.0
基于DeBERTa-v3-base的量化ONNX模型,适用于零样本文本分类任务
文本分类
Transformers
英语
D
pitangent-ds
25
0
Stress Dreaddit
MIT
基于microsoft/xtremedistil-l6-h384-uncased微调的模型,具体用途未明确说明
文本分类
Transformers
S
cjj8168
32
1
Bert Base Uncased Reviews 128
Apache-2.0
基于bert-base-uncased模型在评论数据集上微调的版本,适用于文本分类任务。
大型语言模型
Transformers
B
abhilashawasthi
19
0
Distilbert Base Uncased Finetuned Imdb
Apache-2.0
该模型是基于DistilBERT基础模型在IMDB数据集上微调的版本,主要用于文本情感分析任务。
大型语言模型
Transformers
D
salihkavaf
67
0
Mpnet Base Snli Mnli
一个专为零样本和小样本文本分类训练的交叉注意力自然语言推理模型。
文本分类
Transformers
英语
M
symanto
18
4
T5 Base Finetuned Emotion
该模型是基于谷歌T5-base模型在情感识别数据集上微调而成,用于文本情感分类任务,可将文本分类为6种基本情感。
文本分类
英语
T
mrm8488
7,797
53
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
基于DistilBERT的轻量级文本情感分类模型,在emotion数据集上微调,准确率达92.4%
文本分类
Transformers
D
asalics
17
0
Distilbert Base Uncased Sst5 All Train
Apache-2.0
该模型是基于DistilBERT基础模型在SST5数据集上微调的文本分类模型,准确率为50.45%。
文本分类
Transformers
D
SetFit
131
0
Bert Base Uncased Sst2 Acc91.1 D37 Hybrid
Apache-2.0
该模型是基于bert-base-uncased在SST-2数据集上微调得到的文本分类模型,通过nn_pruning库进行了剪枝优化,保留了原模型51%的权重,准确率达到91.17%。
文本分类
Transformers
英语
B
echarlaix
172
0
Finetuned Sentence Itr0 3e 05 Essays 27 02 2022 19 35 56
Apache-2.0
基于distilbert-base-uncased-finetuned-sst-2-english微调的文本分类模型,在评估集上准确率达86.38%
文本分类
Transformers
F
ali2066
15
0
Roberta Scarcasm Discriminator
MIT
基于RoBERTa-base架构的讽刺文本分类器,用于区分文本是否为讽刺内容
文本分类
Transformers
R
XSY
30
0
Bert Base Uncased Sst2 Membership Attack
Apache-2.0
基于bert-base-uncased微调的模型,用于成员攻击检测任务,在评估集上准确率达到86.81%。
文本分类
Transformers
B
doyoungkim
116
0
Distilbert Base Turkish Cased Allnli Tr
Apache-2.0
基于dbmdz/distilbert-base-turkish-cased微调的土耳其语零样本分类模型
文本分类
Transformers
其他
D
emrecan
15
1
My Awesome Model
基于Transformer架构的预训练语言模型,适用于多种自然语言处理任务。
文本分类
Transformers
M
mishig
15
0
Bert Tiny Finetuned Sst2
该模型是基于BERT-tiny架构,在SST-2数据集上使用M-FAC二阶优化器进行微调的文本分类模型。
文本分类
Transformers
B
M-FAC
59
0
Bert Mini Finetuned Sst2
该模型是在SST-2数据集上采用M-FAC二阶优化器微调的BERT-mini模型,用于文本分类任务。
文本分类
Transformers
B
M-FAC
13.90k
0
Deberta V3 Large Sst2 Train 8 8
MIT
基于microsoft/deberta-v3-large模型在SST-2数据集上微调的情感分析模型
文本分类
Transformers
D
SetFit
17
0