RoBERTa优化
Hwtcmner
Apache-2.0
基于BERT微调的命名实体识别专用模型,专为中医药领域设计,在该领域的NER任务中达到领先性能。
序列标注
Transformers
中文
H
Monor
18
3
Roberta With Kornli
Apache-2.0
该模型是基于klue/roberta-base模型,使用kor_nli数据集中的mnli和xnli进行微调,专门用于韩语零样本分类任务。
文本分类
Transformers
韩语
R
pongjin
52
7
Phobert Base V2
PhoBERT是越南语最先进的预训练语言模型,基于RoBERTa优化,在多项越南语NLP任务中表现优异。
大型语言模型
Transformers
其他
P
vinai
54.89k
27
Chatgpt Detector Roberta Chinese
基于RoBERTa架构的中文ChatGPT生成文本检测模型,用于区分人类撰写和ChatGPT生成的文本。
文本分类
Transformers
中文
C
Hello-SimpleAI
368
24
Legal Roberta Large
基于RoBERTa大模型在LeXFiles法律语料库上持续预训练的法律领域语言模型
大型语言模型
Transformers
英语
L
lexlms
367
13
Relbert Roberta Large
RelBERT是基于RoBERTa-large的模型,专门用于关系嵌入任务,通过NCE(噪声对比估计)在SemEval-2012任务2数据集上进行训练。
文本嵌入
Transformers
R
relbert
97
2
Roberta Base Cuad Finetuned
专为合同理解阿提卡斯数据集(CUAD)问答任务优化的RoBERTa模型,在法律合同审查任务中表现优异
问答系统
Transformers
英语
R
gustavhartz
387
1
Simpledataset
Apache-2.0
基于distilroberta-base微调的模型,具体用途和训练数据未明确说明
大型语言模型
Transformers
S
DioLiu
174
0
Erlangshen Roberta 330M Sentiment
Apache-2.0
基于中文RoBERTa-wwm-ext-large模型,在多个情感分析数据集上微调优化的版本
文本分类
Transformers
中文
E
IDEA-CCNL
65.15k
34
Roberta Base Serbian Upos
这是一个针对塞尔维亚语的RoBERTa模型,专门用于词性标注和依存句法分析。
序列标注
Transformers
其他
R
KoichiYasuoka
64
0
Roberta Base Squad2
这是一个基于RoBERTa的抽取式问答模型,专门针对SQuAD 2.0数据集进行训练,适用于英语问答任务。
问答系统
Transformers
英语
R
ydshieh
31
0
Roberta Base Fiqa Flm Sq Flit
基于RoBERTa-base在金融领域问答任务上微调的模型,专为银行、金融和保险领域的定制问答系统设计。
问答系统
Transformers
R
vanadhi
205
1
Bertweet Base
MIT
BERTweet是首个针对英文推文进行大规模预训练的公开语言模型,基于RoBERTa预训练方法构建。
大型语言模型
B
vinai
74.86k
37
Roberta Fake News
一个基于RoBERTa架构训练的假新闻检测模型,通过分析新闻文本内容判断其真实性。
文本分类
R
ghanashyamvtatti
26
3
Phobert Large
MIT
PhoBERT是越南语最先进的预训练语言模型,基于RoBERTa优化BERT预训练流程,在多项越南语NLP任务中表现优异。
大型语言模型
其他
P
vinai
23.47k
10
Emoroberta
MIT
基于RoBERTa架构的细粒度情感分类模型,在GoEmotions数据集上训练,可识别28种情感类别。
文本分类
Transformers
英语
E
arpanghoshal
21.47k
119
Rubiobert
RuBioRoBERTa 是一个针对俄语生物医学文本预训练的 RoBERTa 模型,专门用于处理生物医学领域的自然语言处理任务。
大型语言模型
Transformers
R
alexyalunin
686
1
Simcse Chinese Roberta Wwm Ext
基于简单对比学习的简体中文语句嵌入编码模型,使用中文RoBERTa WWM扩展版作为预训练模型。
文本嵌入
Transformers
S
cyclone
188
32
Roberta Base MITmovie
基于Roberta Base模型,使用MIT电影数据集进行命名实体识别任务训练的模型
序列标注
R
thatdramebaazguy
34
1
Xlm Roberta Base Finetuned Marc En
MIT
基于XLM-RoBERTa-base模型在amazon_reviews_multi数据集上微调的多语言文本分类模型
大型语言模型
Transformers
X
daveccampbell
29
0
Phobert Base
MIT
PhoBERT是越南语最先进的预训练语言模型,基于RoBERTa架构优化,在多项越南语NLP任务中表现优异。
大型语言模型
其他
P
vinai
368.06k
53
Sup Simcse Roberta Large
基于RoBERTa-large的有监督SimCSE模型,用于句子嵌入和特征提取任务。
文本嵌入
S
princeton-nlp
276.47k
25
Roberta Base English Upos
这是一个基于RoBERTa预训练模型,使用UD_English数据集进行词性标注和依存句法分析的模型。
序列标注
Transformers
支持多种语言
R
KoichiYasuoka
64
1
Roberta Base Bne Finetuned Amazon Reviews Multi
该模型是基于roberta-base-bne在亚马逊多语言评论数据集上微调的文本分类模型,主要用于西班牙语评论的情感分析。
文本分类
Transformers
R
Proggleb
13
0
Roberta Base Finetuned Sst2
基于RoBERTa架构的文本分类模型,在SST-2情感分析任务上微调,准确率达94.5%
文本分类
Transformers
R
Bhumika
53
4
Roberta Base On Cuad
MIT
基于RoBERTa-base模型在法律合同问答任务上微调的模型,专为法律合同审查设计
问答系统
Transformers
英语
R
Rakib
14.79k
8