Finetuned Cross Encoder L6 V2
这是一个基于cross-encoder/ms-marco-MiniLM-L6-v2微调的交叉编码器模型,主要用于文本重排序和语义搜索任务。
文本嵌入
F
CharlesPing
22
1
Minicoil V1
Apache-2.0
MiniCOIL是一种稀疏的上下文化逐词嵌入模型,专为高效语义相似度计算设计
文本嵌入
英语
M
Qdrant
564
7
GTE ModernColBERT V1
Apache-2.0
PyLate是一个基于ColBERT架构的句子相似度模型,采用Alibaba-NLP/gte-modernbert-base作为基础模型,通过蒸馏损失训练,适用于信息检索任务。
文本嵌入
G
lightonai
157.96k
98
Plamo Embedding 1b
Apache-2.0
PLaMo-Embedding-1B是由Preferred Networks公司开发的日语文本嵌入模型,在日语文本嵌入基准测试中表现优异
文本嵌入
Transformers

日语
P
pfnet
33.48k
25
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
这是一个基于ModernBERT-base微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
akr2002
16
1
Reasoning Bert Ccnews
这是一个基于BERT微调的句子转换器模型,用于将句子和段落映射到768维向量空间,支持语义文本相似性、语义搜索等任务。
文本嵌入
R
bwang0911
13
1
Reranker ModernBERT Large Gooaq Bce
Apache-2.0
这是一个从ModernBERT-large微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
596
5
Reranker Pho BLAI
Apache-2.0
这是一个基于Apache-2.0许可证的越南语文本排序模型,主要用于处理越南语文本的排序任务。
大型语言模型
Safetensors
其他
R
truong1301
21
0
Reranker Bert Tiny Gooaq Bce Tanh V4
Apache-2.0
这是一个从bert-tiny微调而来的交叉编码器模型,用于计算文本对的相似度分数,适用于语义文本相似度、语义搜索等任务。
文本嵌入
英语
R
cross-encoder-testing
1,971
0
Rank1 32b
MIT
rank1-32b是一个基于Qwen2.5-32B训练的信息检索重排序模型,通过生成推理链进行相关性判断
大型语言模型
Transformers

英语
R
jhu-clsp
18
0
Rank1 14b
MIT
rank1是一个140亿参数的推理重排序模型,通过生成显式推理链再进行相关性判断,提高了信息检索任务的性能。
大型语言模型
Transformers

英语
R
jhu-clsp
23
0
Hypencoder.2 Layer
Apache-2.0
Hypencoder是一种用于信息检索的超网络模型,包含文本编码器和Hypencoder两部分,能够将文本转换为小型神经网络并输出相关性分数。
文本嵌入
Transformers

英语
H
jfkback
18
1
Hypencoder.8 Layer
MIT
Hypencoder是一种用于信息检索的双编码器模型,包含文本编码器和超网络(Hypencoder),能够将文本转换为小型神经网络用于计算相关性分数。
文本嵌入
Transformers

英语
H
jfkback
18
1
Lightblue.lb Reranker 0.5B V1.0 GGUF
一个轻量级的文本排序模型,适用于信息检索和文档排序任务。
大型语言模型
L
DevQuasar
66
0
Modernbert Base Msmarco
该模型是基于ModernBERT-base微调的句子嵌入模型,专门用于句子相似度任务,支持英语文本处理。
文本嵌入
英语
M
joe32140
4,695
9
Arabic Retrieval V1.0
Apache-2.0
高性能的阿拉伯语信息检索模型,基于sentence-transformers框架构建,针对阿拉伯语的丰富性和复杂性进行了优化。
文本嵌入
阿拉伯语
A
omarelshehy
366
3
Namaa ARA Reranker V1
Apache-2.0
专为阿拉伯语重排序任务设计的模型,能够精准处理查询与段落的相关性评估。
文本嵌入
Transformers

阿拉伯语
N
NAMAA-Space
56
4
Arabic Reranker V1
这是一个基于BERT架构的阿拉伯语重排序模型,专为阿拉伯语文本相关性排序任务优化
文本嵌入
阿拉伯语
A
oddadmix
21
1
Arabic Reranker
这是一个基于BERT架构的阿拉伯语重排序模型,专为阿拉伯文本设计,通过评分和排序文本选项来执行重排序任务。
文本嵌入
阿拉伯语
A
oddadmix
14
0
Llm2vec Meta Llama 31 8B Instruct Mntp
MIT
LLM2Vec是一种将仅解码器的大语言模型转换为文本编码器的简单方法,通过启用双向注意力、掩码下一词预测和无监督对比学习实现。
文本嵌入
Transformers

英语
L
McGill-NLP
386
2
Polish Reranker Bge V2
这是一个基于BAAI/bge-reranker-v2-m3并进一步在大规模波兰语文本对数据集上微调的重排序模型,支持长上下文处理。
文本嵌入
Transformers

其他
P
sdadas
549
1
Thusinh1969 Gemma2 2b Rerank Checkpoint 8800 Gguf
基于Gemma 2B架构的文本排序模型,提供多种量化版本以适应不同硬件需求
文本排序
T
RichardErkhov
71
0
Ruri Reranker Large
Apache-2.0
琉璃重排序器是一个日语通用重排序模型,基于Sentence Transformers架构,专门用于日语文本相关性排序任务。
文本嵌入
日语
R
cl-nagoya
2,538
11
Ruri Reranker Base
Apache-2.0
日语通用重排序模型,用于提升日语文本检索的相关性排序效果
文本嵌入
日语
R
cl-nagoya
1,100
4
Ruri Reranker Stage1 Base
Apache-2.0
瑠璃重排序器是一个基于Transformer架构的日语文本重排序模型,专门用于优化检索结果的排序质量。
文本嵌入
日语
R
cl-nagoya
26
0
Ruri Reranker Small
Apache-2.0
Ruri-Reranker是一个专门针对日语文本优化的重排序模型,基于sentence-transformers架构,能够有效提升检索结果的相关性排序。
文本嵌入
日语
R
cl-nagoya
116
2
Ruri Reranker Stage1 Small
Apache-2.0
琉璃重排序器是一个日语通用重排序模型,专门用于提升日语文本检索结果的相关性排序。
文本嵌入
日语
R
cl-nagoya
25
0
Ko Reranker 8k
Apache-2.0
基于BAAI/bge-reranker-v2-m3模型,使用韩语数据微调后的文本排序模型
文本嵌入
Transformers

支持多种语言
K
upskyy
14
11
Fingumv3
这是一个基于dunzhang/stella_en_1.5B_v5微调的sentence-transformers模型,用于生成句子和段落的1024维密集向量表示,适用于语义文本相似度、语义搜索等任务。
文本嵌入
F
FINGU-AI
26
1
Norwegian Nli Triplets C
Apache-2.0
基于jina-embeddings-v2-base-en微调的挪威语句子嵌入模型,专注于关键词文档搜索和句子相似度任务
文本嵌入
其他
N
fine-tuned
24
1
Monoelectra Base
Apache-2.0
lightning-ir 是一个基于 ELECTRA 架构的交叉编码器模型,专门用于文本排序任务。
大型语言模型
Safetensors
M
webis
69
4
Crossencoder Xlm Roberta Base Mmarcofr
MIT
这是一个基于XLM-RoBERTa的法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
51
0
Crossencoder Me5 Base Mmarcofr
MIT
这是一个基于multilingual-e5-base的法语交叉编码器模型,专门用于段落重排序任务。
文本嵌入
法语
C
antoinelouis
49
1
Crossencoder Camembert Large Mmarcofr
MIT
这是一个法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
108
1
Venusaur
MIT
Venusaur是基于Mihaiii/Bulbasaur基础模型开发的句子嵌入模型,专注于句子相似度和特征提取任务。
文本嵌入
V
Mihaiii
290
3
Gte Large En V1.5
Apache-2.0
GTE-Large是一个高性能的英文文本嵌入模型,在多个文本相似度和分类任务上表现优异。
文本嵌入
Transformers

支持多种语言
G
Alibaba-NLP
891.76k
213
Japanese Reranker Cross Encoder Small V1
MIT
这是一个日语训练的Reranker(交叉编码器)模型,用于文本排序任务。
文本嵌入
日语
J
hotchpotch
209
3
Polish Reranker Base Mse
Apache-2.0
这是一个基于均方误差(MSE)蒸馏方法训练的波兰语文本排序模型,训练数据集包含140万条查询和1000万份文档的文本对。
文本嵌入
Transformers

其他
P
sdadas
16
0
Polish Reranker Large Ranknet
Apache-2.0
这是一个采用RankNet损失函数训练的波兰文本排序模型,训练数据集包含140万条查询和1000万份文档组成的文本对。
文本嵌入
Transformers

其他
P
sdadas
337
2
Minilm L6 Danish Reranker
MIT
这是一个轻量级丹麦语文本排序模型,基于英语MiniLM-L6模型适配而来,专门用于丹麦语信息检索任务。
文本嵌入
其他
M
KennethTM
160
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文