无监督训练
Pearl Small
Apache-2.0
珍珠小模型是一款轻量级字符串嵌入模型,专门用于处理字符串语义相似度计算,为字符串匹配、实体检索等任务生成优质嵌入向量。
文本嵌入
Transformers
英语
P
Lihuchen
1,824
13
Compositional Bert Large Uncased
Apache-2.0
CompCSE 和 SimCSE 是基于对比学习的句子嵌入模型,用于计算句子相似度。
文本嵌入
Transformers
英语
C
perceptiveshawty
754
2
Roberta Ko Small Tsdae
MIT
这是一个基于sentence-transformers的韩语小型RoBERTa模型,能够将句子和段落映射到256维稠密向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
韩语
R
smartmind
39
2
Laprador Untrained
这是一个基于sentence-transformers的句子相似度模型,可将文本映射到768维向量空间
文本嵌入
Transformers
L
gemasphi
31
0
All T5 Base V1
Apache-2.0
基于T5的doc2query模型,用于文档扩展和训练数据生成
文本生成
Transformers
英语
A
doc2query
171
10
Mirror Roberta Base Sentence Drophead
基于RoBERTa的无监督句子编码器,采用drophead技术增强特征空间,适用于句子相似度计算。
文本嵌入
Transformers
M
cambridgeltl
25
1
Unsup Simcse Bert Base Uncased
基于BERT架构的无监督对比学习模型,通过简单有效的对比学习框架提升句子嵌入质量
文本嵌入
U
princeton-nlp
9,546
5
Simcse Chinese Roberta Wwm Ext
基于简单对比学习的简体中文语句嵌入编码模型,使用中文RoBERTa WWM扩展版作为预训练模型。
文本嵌入
Transformers
S
cyclone
188
32
Tsdae Bert Base Dv News Title
这是一个基于sentence-transformers框架的语义向量模型,能够将迪维希语句子和段落映射到768维稠密向量空间,适用于文本聚类或语义搜索等任务。
文本嵌入
Transformers
其他
T
ashraq
13
1
Contriever Msmarco
基于Contriever预训练模型的微调版本,专为密集信息检索任务优化,采用对比学习方法训练
文本嵌入
Transformers
C
facebook
24.08k
27
Distilbert Base Uncased Go Emotions Student
MIT
通过零样本分类流程从无标注GoEmotions数据集蒸馏而来的情感分类模型,作为计算高效的概念验证模型
文本分类
Transformers
英语
D
joeddav
143.01k
76
SBERT Large Nli V2
SBERT-large-nli-v2 是一个基于BERT的大型句子转换器模型,专门用于句子相似度计算和特征提取。
文本嵌入
Transformers
S
Muennighoff
43
1