Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers

其他
A
abbasgolestani
18
0
Turkish Base Bert Uncased
这是一个针对土耳其语的基础版BERT模型,不区分大小写,主要用于填充掩码任务。
大型语言模型
Transformers

其他
T
ytu-ce-cosmos
241
16
Pegasus Indonesian Base Finetune
Apache-2.0
该模型是基于PEGASUS架构的印尼语文本摘要模型,在Indosum、Liputan6和XLSum数据集上微调而成,适用于新闻类文本摘要任务。
文本生成
Transformers

其他
P
thonyyy
172
2
St Greek Media Bert Base Uncased
这是一个基于希腊媒体BERT(无大小写)模型的sentence-transformers模型,用于将希腊语句子和段落映射到768维向量空间。
文本嵌入
Transformers

其他
S
dimitriz
146
1
Sentence Bert Base Italian Uncased
MIT
这是一个基于sentence-transformers的意大利语无大小写区分版BERT模型,用于生成句子和段落的768维稠密向量表示。
文本嵌入
Transformers

其他
S
nickprock
3,228
10
Legacy1
BERT (Bidirectional Encoder Representations from Transformers) 是一种基于Transformer架构的预训练语言模型,由Google开发。
大型语言模型
Transformers

L
khoon485
19
0
Bert Tiny Uncased
Apache-2.0
这是BERT模型的微型版本,无大小写区分,适用于资源受限环境下的自然语言处理任务。
大型语言模型
Transformers

英语
B
gaunernst
3,297
4
Radbert
MIT
RadBERT是基于BioBERT初始化的放射学领域专用BERT模型,在放射学报告数据上进行了持续预训练,适用于生物医学和放射学领域的自然语言处理任务。
大型语言模型
Transformers

英语
R
StanfordAIMI
1,749
23
Scibert Scivocab Uncased Finetuned Ner
基于SciBERT的科学领域预训练模型微调的命名实体识别模型
序列标注
Transformers

S
HenryHXR
19
0
Bert Base Uncased
Apache-2.0
基于英语语言的BERT基础模型,采用掩码语言建模(MLM)目标进行预训练,不区分大小写形式。
大型语言模型
Transformers

英语
B
OWG
15
0
Distilbert Base Uncased Mnli
基于无大小写区分的DistilBERT模型,在多体裁自然语言推理(MNLI)数据集上微调,专为零样本分类任务优化
文本分类
Transformers

英语
D
optimum
53
3
Roberta TR Medium Bpe 44k
基于土耳其语的RoBERTa模型,采用掩码语言建模(MLM)目标进行预训练,不区分大小写。
大型语言模型
Transformers

其他
R
ctoraman
48
0
Roberta TR Medium Wp 44k
基于土耳其语的RoBERTa模型,采用掩码语言建模目标预训练,不区分大小写,适用于土耳其语文本处理任务。
大型语言模型
Transformers

其他
R
ctoraman
84
0
Roberta TR Medium Bpe 16k
基于土耳其语使用掩码语言建模(MLM)目标预训练的RoBERTa模型,不区分大小写,中等规模架构。
大型语言模型
Transformers

其他
R
ctoraman
26
0
Distilbert Base Uncased Agnews Student
MIT
该模型是通过蒸馏技术从零样本分类流程获得的AG新闻分类模型,主要用于演示如何将昂贵的零样本模型蒸馏为更高效的学生模型。
文本分类
Transformers

英语
D
joeddav
900
5
Indobert Lite Large P1
MIT
IndoBERT是针对印尼语的先进语言模型,基于BERT架构,采用掩码语言建模和下一句预测目标进行训练。
大型语言模型
Transformers

其他
I
indobenchmark
42
0
Sbert Uncased Finnish Paraphrase
基于FinBERT训练的芬兰语句子BERT模型,用于句子相似度计算和特征提取
文本嵌入
Transformers

其他
S
TurkuNLP
895
2
Indobert Lite Base P2
MIT
IndoBERT是针对印尼语开发的顶尖语言模型,基于BERT架构,采用掩码语言建模和下一句预测目标进行训练。
大型语言模型
Transformers

其他
I
indobenchmark
2,498
0
Sbert Large Nlu Ru
MIT
这是一个基于BERT架构的大型俄语模型,专门用于生成句子嵌入,支持无大小写区分处理。
文本嵌入
Transformers

其他
S
ai-forever
386.96k
84
Ruperta Base
RuPERTa是基于大型西班牙语语料库训练的无大小写RoBERTa模型,采用RoBERTa改进的预训练方法,适用于多种西班牙语NLP任务。
大型语言模型
西班牙语
R
mrm8488
39
2
Indobert Lite Base P1
MIT
IndoBERT是针对印尼语的BERT模型变体,采用掩码语言建模和下一句预测目标训练。
大型语言模型
Transformers

其他
I
indobenchmark
723
0
Roberta Base Indonesian 522M
MIT
基于RoBERTa-base架构的印尼语预训练模型,使用印尼语维基百科数据训练,不区分大小写。
大型语言模型
其他
R
cahya
454
6
Danish Bert Botxo
由Certainly(原BotXO)开发的丹麦语BERT模型,支持无大小写区分的丹麦语文本处理。
大型语言模型
其他
D
Maltehb
1,306
14
Danish Bert Botxo Ner Dane
这是一个针对丹麦语预训练的BERT模型,由Certainly(前BotXO)开发,后经Malte Højmark-Bertelsen在DaNE数据集上针对命名实体识别任务进行微调。
序列标注
其他
D
Maltehb
594
4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文