无监督对比学习
Nomic Embed Text V2 Moe Unsupervised
这是一个多语言混合专家(MoE)文本嵌入模型的中间版本,经过多阶段对比训练得到
文本嵌入
N
nomic-ai
161
5
Llm2vec Meta Llama 31 8B Instruct Mntp Unsup Simcse
MIT
LLM2Vec是一种将仅解码器架构的大语言模型转换为文本编码器的方案,通过启用双向注意力、掩码下一词预测和无监督对比学习实现转换。
文本嵌入
英语
L
McGill-NLP
55
2
Llm2vec Meta Llama 31 8B Instruct Mntp
MIT
LLM2Vec是一种将仅解码器的大语言模型转换为文本编码器的简单方法,通过启用双向注意力、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers
英语
L
McGill-NLP
386
2
Llm2vec Meta Llama 3 8B Instruct Mntp
MIT
LLM2Vec是将仅解码器架构的大语言模型转化为文本编码器的简易方案,通过启用双向注意力机制、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers
英语
L
McGill-NLP
3,885
16
Llm2vec Sheared LLaMA Mntp
MIT
LLM2Vec是将仅解码器架构的大语言模型转化为文本编码器的简易方案,通过启用双向注意力、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers
英语
L
McGill-NLP
2,430
5
Simcse Dist Mpnet Paracrawl Cs En
基于Seznam/dist-mpnet-paracrawl-cs-en模型,采用SimCSE目标进行微调的捷克语-英语语义嵌入模型
文本嵌入
Transformers
支持多种语言
S
Seznam
2,997
3
Simcse Retromae Small Cs
基于RetroMAE-Small模型采用SimCSE目标微调的捷克语小型语义嵌入模型
文本嵌入
Transformers
其他
S
Seznam
309
4
Simcse Small E Czech
基于Seznam/small-e-czech模型通过SimCSE目标微调而成的捷克语句子相似度模型
文本嵌入
Transformers
其他
S
Seznam
1,543
1
Rankcse Listmle Bert Base Uncased
Apache-2.0
该数据集用于训练和评估SimCSE(Simple Contrastive Learning of Sentence Embeddings)模型,支持句子相似度任务。
文本嵌入
Transformers
英语
R
perceptiveshawty
20
0
Simcse Indoroberta Base
这是一个基于IndoRoberta的句子转换器模型,能够将印尼语句子和段落映射到768维向量空间,适用于句子相似度计算和语义搜索任务。
文本嵌入
Transformers
其他
S
LazarusNLP
15
0
Simcse Indobert Base
基于IndoBERT的SimCSE模型,用于生成印尼语句子的语义嵌入向量
文本嵌入
Transformers
其他
S
LazarusNLP
26
1
Erlangshen SimCSE 110M Chinese
Apache-2.0
基于SimCSE无监督版本,采用中文NLI数据进行有监督对比学习训练的中文句子向量表征模型
文本嵌入
Transformers
中文
E
IDEA-CCNL
186
21
Declutr Sci Base
Apache-2.0
基于SciBERT的科学文本句子编码器,通过自监督学习在200万篇科学论文上训练
文本嵌入
英语
D
johngiorgi
50
9