RoBERTa架构
Medical Ner Roberta
基于RoBERTa架构的医疗领域命名实体识别模型,用于从医疗文本中识别特定实体
序列标注
Transformers
M
nairaxo
58
1
Parrots Chinese Roberta Wwm Ext Large
Apache-2.0
基于RoBERTa架构的中文预训练模型,支持文本转语音任务
大型语言模型
Transformers
中文
P
shibing624
76
2
Polish Reranker Base Mse
Apache-2.0
这是一个基于均方误差(MSE)蒸馏方法训练的波兰语文本排序模型,训练数据集包含140万条查询和1000万份文档的文本对。
文本嵌入
Transformers
其他
P
sdadas
16
0
AIGC Detector Env2
Apache-2.0
基于多尺度正无标记检测方法的AI生成文本检测器,用于识别AI生成的文本内容。
文本分类
Transformers
A
yuchuantian
94
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
其他
A
abbasgolestani
18
0
Simcse Indoroberta Base
这是一个基于IndoRoberta的句子转换器模型,能够将印尼语句子和段落映射到768维向量空间,适用于句子相似度计算和语义搜索任务。
文本嵌入
Transformers
其他
S
LazarusNLP
15
0
Legal Dutch Roberta Base
基于RoBERTa架构的荷兰语法律领域基础模型
大型语言模型
Transformers
L
joelniklaus
25
2
Legal Xlm Roberta Base
CC
基于法律数据预训练的多语言XLM-RoBERTa模型,支持24种欧洲语言的法律文本处理
大型语言模型
Transformers
支持多种语言
L
joelniklaus
387
3
Drbert 7GB
Apache-2.0
DrBERT是基于法语医疗文本开源语料库NACHOS训练的法语RoBERTa模型,专注于生物医学与临床领域
大型语言模型
Transformers
法语
D
Dr-BERT
4,781
13
Congen Simcse Model Roberta Base Thai
Apache-2.0
这是一个基于RoBERTa架构的泰语句子相似度模型,能够将句子映射到768维的向量空间,适用于语义搜索等任务。
文本嵌入
Transformers
C
kornwtp
86
1
Danskbert
丹麦BERT是一个针对丹麦语优化的语言模型,在丹麦语ScandEval基准测试中表现优异。
大型语言模型
Transformers
其他
D
vesteinn
151
6
Maltberta
MaltBERTa是基于马耳他语文本大规模预训练的语言模型,采用RoBERTa架构,由MaCoCu项目开发。
大型语言模型
其他
M
MaCoCu
26
0
Robertuito Pos
基于RoBERTuito的西班牙语/英语词性标注模型,专为推特文本优化
序列标注
Transformers
西班牙语
R
pysentimiento
188
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base模型在PANX数据集上微调的多语言命名实体识别模型
大型语言模型
Transformers
X
okite97
15
0
Roberta Base Ca V2 Cased Ner
Apache-2.0
基于RoBERTa架构的加泰罗尼亚语命名实体识别模型,在AnCora-Ca-NER数据集上微调
序列标注
Transformers
其他
R
projecte-aina
986
0
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统
Transformers
R
janeel
16
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base在多语言数据集上微调的命名实体识别模型
大型语言模型
Transformers
X
flood
15
0
Kosimcse Roberta Multitask
基于RoBERTa架构优化的韩语语义相似度计算模型,通过多任务学习实现高性能句子嵌入
文本嵌入
Transformers
韩语
K
BM-K
37.37k
23
Roberta Base Coptic Upos
基于RoBERTa的科普特语词性标注和依存句法分析模型
序列标注
Transformers
其他
R
KoichiYasuoka
67
0
Tibetan Roberta Causal Base
MIT
这是一个基于RoBERTa架构的藏文预训练因果语言模型,主要用于藏文文本生成任务。
大型语言模型
Transformers
其他
T
sangjeedondrub
156
5
Legalbert Large 1.7M 1
基于RoBERTa预训练目标,在英语法律和行政文本上预训练的BERT大模型
大型语言模型
Transformers
英语
L
pile-of-law
120
14
Roberta Base Turkish Uncased
MIT
基于土耳其语预训练的RoBERTa基础模型,使用38GB土耳其语语料训练
大型语言模型
Transformers
其他
R
burakaytan
57
16
Bsc Bio Es
Apache-2.0
专为西班牙语生物医学领域设计的预训练语言模型,适用于临床NLP任务
大型语言模型
Transformers
西班牙语
B
PlanTL-GOB-ES
162
5
Roberta Retrained Ru Covid Papers
基于roberta-retrained_ru_covid在未知数据集上微调的俄语模型,可能与COVID-19相关研究论文处理有关
大型语言模型
Transformers
R
Daryaflp
15
0
Icebert Xlmr Ic3
基于RoBERTa-base架构的冰岛语掩码语言模型,通过xlm-roberta-base微调训练而成
大型语言模型
Transformers
其他
I
mideind
24
0
Icebert Ic3
基于RoBERTa-base架构训练的冰岛语掩码语言模型,使用fairseq框架训练
大型语言模型
Transformers
其他
I
mideind
16
0
Tunbert Zied
tunbert_zied 是一个基于突尼斯方言的语言模型,架构类似RoBERTa,训练了超过60万条突尼斯方言短语。
大型语言模型
Transformers
T
ziedsb19
19
2
FERNET News
FERNET-新闻是一个基于捷克语RoBERTa的单语基础模型,通过20.5GB经过彻底清洗的捷克新闻语料库进行预训练。
大型语言模型
Transformers
其他
F
fav-kky
17
0
Bertin Base Gaussian
这是一个基于RoBERTa-base架构、从零开始训练的西班牙语填充掩码模型。
大型语言模型
西班牙语
B
bertin-project
16
0
Roberta Large Squad2
MIT
基于roberta-large架构开发的问答模型,专门针对SQuAD 2.0数据集进行训练
问答系统
英语
R
navteca
21
0
Roberta Base Few Shot K 128 Finetuned Squad Seed 42
MIT
基于RoBERTa-base模型在SQuAD数据集上进行few-shot微调的问答模型
问答系统
Transformers
R
anas-awadalla
19
0
Robbert V2 Dutch Base
MIT
RobBERT是当前最先进的荷兰语BERT模型,基于RoBERTa架构优化,适用于各类文本分类和标记任务
大型语言模型
其他
R
pdelobelle
7,891
29
Roberta Large
基于韩语预训练的RoBERTa模型,适用于韩语理解任务。
大型语言模型
Transformers
韩语
R
klue
132.29k
50
Robbert V2 Dutch Ner
MIT
RobBERT是最先进的荷兰语BERT模型,经过大规模预训练,可通过微调适应各类文本任务。
大型语言模型
其他
R
pdelobelle
76.94k
3
Vietnamese Sbert
基于sentence-transformers的越南语句子嵌入模型,可将文本映射至768维向量空间,适用于语义搜索和聚类任务。
文本嵌入
Transformers
V
keepitreal
10.54k
48
Bertin Base Stepwise
基于RoBERTa架构的西班牙语预训练模型,专注于填充掩码任务
大型语言模型
西班牙语
B
bertin-project
15
0
FERNET News Sk
基于斯洛伐克语的单语RoBERTa-base模型,通过4.5GB清洗后的斯洛伐克新闻语料库预训练
大型语言模型
Transformers
其他
F
fav-kky
26
3
Bertweet Covid19 Base Uncased
MIT
BERTweet是首个针对英文推文进行预训练的大规模公开语言模型,基于RoBERTa架构优化,专门处理社交媒体文本。
大型语言模型
B
vinai
15
2
Tajberto
TajBERTo 是首个类似RoBERTa的塔吉克语语言模型,专为塔吉克语自然语言处理任务设计。
大型语言模型
Transformers
其他
T
muhtasham
31
4
Roberta Base Finetuned Squad2
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型
问答系统
Transformers
R
mvonwyl
19
0