Sage V1.1.0
MIT
基于FRED-T5-1.7B训练的俄语拼写检查模型,可纠正拼写、标点和大小写错误
文本生成
Transformers
其他
S
ai-forever
668
6
XLM RoBERTa German Sentiment
Apache-2.0
基于XLM-RoBERTa架构的多语言情感分析模型,特别针对德语优化,在德语情感分析任务上达到87%的F1值。
文本分类
Transformers
支持多种语言
X
ssary
1,946
11
Phayathaibert Thainer
MIT
基于phayathaibert微调的泰语标记分类模型,在THAI-NER数据集上表现出色
序列标注
Transformers
其他
P
Pavarissy
329
4
Videomae Base Finetuned
基于MCG-NJU/videomae-base在未知数据集上微调的视频理解模型,F1分数达到0.7147
视频处理
Transformers
V
sheraz179
15
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的法语标记分类模型
序列标注
Transformers
X
huangjia
37
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基于XLM-RoBERTa-base模型在德语和法语数据集上微调的版本,主要用于序列标注任务。
大型语言模型
Transformers
X
haesun
15
0
Roberta Base Ner Demo
基于蒙古语RoBERTa-base模型微调的命名实体识别(NER)模型
序列标注
Transformers
其他
R
Buyandelger
15
0
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
基于bert-base-german-cased微调的德语文本分类模型,在评估集上表现出色
文本分类
Transformers
B
tbosse
15
0
Test
Apache-2.0
该模型是基于hfl/chinese-bert-wwm-ext在conll2003数据集上微调的版本,用于标记分类任务。
序列标注
Transformers
T
vegetable
15
0
Xlm Roberta Base Finetuned Panx It
MIT
基于XLM-RoBERTa-base模型在xtreme数据集上微调的标记分类模型,支持意大利语文本处理任务
序列标注
Transformers
X
RobertoMCA97
14
0
Small E Czech Finetuned Ner Wikiann
该模型是基于Seznam/small-e-czech在wikiann数据集上微调的版本,用于捷克语命名实体识别任务。
序列标注
Transformers
S
richielo
10.07k
2
Bert Base Uncased Squadv1 X1.84 F88.7 D36 Hybrid Filled V1
MIT
这是一个通过nn_pruning库剪枝优化的问答模型,保留了50%原始权重,在SQuAD v1上微调,F1值达88.72
问答系统
Transformers
英语
B
madlag
30
0
Distilbert Mrpc
Apache-2.0
基于distilbert-base-uncased在glue数据集上微调的文本分类模型,用于判断句子对是否语义等价
文本分类
Transformers
D
mattchurgin
15
0
Indonesian Roberta Base Emotion Classifier
MIT
基于Indo-roberta模型训练的印尼语情感分类器,在IndoNLU EmoT数据集上训练,用于情感分析任务。
文本分类
Transformers
其他
I
StevenLimcorn
767
14
Vit Flyswot Test
基于图像文件夹数据集微调的视觉Transformer模型,主要用于图像分类任务
图像分类
Transformers
V
davanstrien
24
0
Flair Arabic Multi Ner
Apache-2.0
这是一个基于Flair和GloVe嵌入的阿拉伯语命名实体识别模型,支持识别地点、组织机构、人物等实体类型。
序列标注
支持多种语言
F
megantosh
739
5
Chinese Pretrain Mrc Roberta Wwm Ext Large
Apache-2.0
基于海量中文阅读理解数据训练的roberta_wwm_ext_large模型,在阅读理解/文本分类等任务上表现显著提升。
问答系统
Transformers
中文
C
luhua
790
84
Finetuned Sentence Itr0 3e 05 Essays 27 02 2022 19 35 56
Apache-2.0
基于distilbert-base-uncased-finetuned-sst-2-english微调的文本分类模型,在评估集上准确率达86.38%
文本分类
Transformers
F
ali2066
15
0
Minilm Finetuned Emotion
MIT
该模型是基于Microsoft MiniLM架构在emotion情感分类数据集上微调的文本分类模型,在评估集上F1得分达到0.9118。
文本分类
Transformers
M
lewtun
19
0
BERT NER Ep6 PAD 50 Finetuned Ner
Apache-2.0
基于bert-base-cased微调的命名实体识别(NER)模型,在未知数据集上训练6个epoch,表现中等水平
序列标注
Transformers
B
suwani
14
0
Emotion Trained 31415
Apache-2.0
基于distilbert-base-uncased微调的情感分析模型,在tweet_eval数据集上训练,用于推文情感分类
文本分类
Transformers
E
marcolatella
16
0
Mobilebert Uncased Finetuned Squadv1
基于MobileBERT的轻量级问答模型,在SQuAD v1.1数据集上微调,适用于英文问答任务。
问答系统
Transformers
英语
M
mrm8488
27
1
Cs224n Squad2.0 Distilbert Base Uncased
该模型是为CS224n学生项目建立的基准模型,基于DistilBERT架构,在SQuAD2.0数据集上微调,用于问答任务。
问答系统
Transformers
C
elgeish
15
0
Bert Large Cased Finetuned Mrpc
Apache-2.0
基于bert-large-cased在GLUE MRPC数据集上微调的文本分类模型
文本分类
Transformers
英语
B
gchhablani
54
1
Test Trainer To Hub
Apache-2.0
基于bert-base-uncased在GLUE数据集上微调的文本分类模型,在MRPC任务上表现出色
文本分类
Transformers
T
edbeeching
17
0
Distilbert Base Uncased Finetuned Mrpc
Apache-2.0
该模型是基于DistilBERT在GLUE MRPC任务上微调的文本分类模型,用于判断句子对是否语义等价
文本分类
Transformers
D
anirudh21
18
0
Demotest
Apache-2.0
基于bert-base-uncased在GLUE MRPC数据集上微调的文本分类模型
文本分类
Transformers
英语
D
junzai
17
0
German Sentiment Bert
MIT
专为德语文本情感分类训练的BERT模型,支持积极/消极/中性三分类
文本分类
德语
G
oliverguhr
369.80k
61
Xlm Roberta Base Finetuned Panx All
MIT
基于XLM-RoBERTa基础模型在未知数据集上微调的版本,主要用于多语言文本处理任务
序列标注
Transformers
X
MhF
14
0
Roberta Base Bne Sqac
Apache-2.0
西班牙语问答模型,基于roberta-base-bne微调,使用西班牙国家图书馆570GB文本数据预训练
问答系统
Transformers
西班牙语
R
PlanTL-GOB-ES
507
4