文本分类优化
Bert Hateful Memes Expanded
Apache-2.0
基于bert-base-uncased微调的模型,用于识别仇恨表情包文本内容
文本分类
Transformers
B
limjiayi
29
4
GIST Embedding V0
MIT
GIST-Embedding-v0 是一个基于 sentence-transformers 的句子嵌入模型,主要用于句子相似度计算和特征提取任务。
文本嵌入
英语
G
avsolatorio
252.21k
26
Check Event Wa
Apache-2.0
基于distilbert-base-uncased微调的文本分类模型,在评估集上表现出色,准确率和F1分数均达到1.0。
大型语言模型
Transformers
C
Venkatesh4342
15
2
Snowflake Arctic Embed S
Apache-2.0
Snowflake Arctic Embed S 是一个专注于句子相似度任务的嵌入模型,由 Snowflake 公司开发。
文本嵌入
Transformers
S
Snowflake
32.13k
20
Distilbert Base Uncased Finetuned Cola
Apache-2.0
该模型是基于DistilBERT在CoLA(Corpus of Linguistic Acceptability)数据集上微调的版本,用于语法可接受性判断任务。
大型语言模型
Transformers
D
stuser2023
179
2
Norbert3 Base
Apache-2.0
NorBERT 3 是新一代挪威语语言模型,基于BERT架构,支持书面挪威语(Bokmål)和新挪威语(Nynorsk)。
大型语言模型
Transformers
其他
N
ltg
345
7
Roberta Base Culinary
Apache-2.0
基于bert-base-uncased在烹饪相关数据集上微调的RoBERTa模型,适用于文本分类等NLP任务
大型语言模型
Transformers
R
juancavallotti
34
0
Distilroberta Base SmithsModel2
Apache-2.0
基于distilroberta-base微调的模型,适用于特定NLP任务
大型语言模型
Transformers
D
stevems1
22
0
Distilbert500e
Apache-2.0
基于distilbert-base-uncased微调的模型,具体任务和数据集信息未提供
大型语言模型
Transformers
D
bigmorning
27
0
Tamillion
基于ELECTRA框架训练的泰米尔语预训练模型,第二版采用TPU训练并扩大语料库规模
大型语言模型
Transformers
其他
T
monsoon-nlp
58
2
Distilbert Base Uncased Finetuned Cola 4
Apache-2.0
基于DistilBERT的微调模型,用于语法可接受性分类任务,在评估集上表现出色。
大型语言模型
Transformers
D
fadhilarkan
6
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基于distilbert-base-uncased在glue数据集上微调的文本分类模型,用于句子可接受性判断任务
文本分类
Transformers
D
jimmyliao
15
0
Bert Tagalog Base Uncased WWM
Gpl-3.0
基于大规模他加禄语文本训练的BERT变体,采用整词掩码技术,适用于菲律宾语自然语言处理任务
大型语言模型
其他
B
jcblaise
18
0
FERNET C5
FERNET-C5是一个基于捷克语的单语BERT基础模型,预训练数据来自93GB的捷克语大规模清洁爬取语料库(C5)。
大型语言模型
Transformers
其他
F
fav-kky
219
7
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基于DistilBERT的轻量级文本分类模型,在GLUE的CoLA任务上微调,用于判断句子语法正确性
文本分类
Transformers
D
histinct7002
15
0
Albert Fa Base V2 Sentiment Deepsentipers Multi
Apache-2.0
轻量级BERT模型,专为波斯语语言表征的自监督学习设计
大型语言模型
Transformers
其他
A
m3hrdadfi
24
0
Bert Base Multilingual Cased Finetuned
该模型是基于bert-base-multilingual-cased在未知数据集上微调的版本,主要用于多语言文本处理任务。
大型语言模型
Transformers
B
am-shb
17
0
Sinbert Large
MIT
SinBERT是基于RoBERTa架构的僧伽罗语预训练语言模型,在大型僧伽罗语单语语料库(sin-cc-15M)上训练。
大型语言模型
Transformers
其他
S
NLPC-UOM
150
6
Sinbert Small
MIT
SinBERT是基于RoBERTa架构在大型僧伽罗语单语语料库(sin-cc-15M)上预训练的模型,适用于僧伽罗语文本处理任务。
大型语言模型
Transformers
其他
S
NLPC-UOM
126
4
SGPT 125M Weightedmean Msmarco Specb Bitfit
SGPT-125M是一个基于加权平均和bitfit技术优化的句子转换器模型,专注于句子相似度任务。
文本嵌入
S
Muennighoff
4,086
2