信息检索增强
Ruri V3 Reranker 310m Preview
Apache-2.0
这是一个日语通用重排序模型的预览版本,基于cl-nagoya/ruri-v3-pt-310m基础模型训练,专门用于日语文本相关性排序任务。
文本嵌入
日语
R
cl-nagoya
79
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
这是一个基于MiniLM-L12-H384-uncased微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
1,019
3
Rank1 3b
MIT
rank1-3b是一个基于Qwen2.5-3B训练的信息检索重排序模型,通过生成推理链进行相关性判断
大型语言模型
Transformers
英语
R
jhu-clsp
103
0
Rank1 7b
MIT
rank1-7b是一个基于Qwen2.5-7B训练的70亿参数重排序模型,通过生成推理链进行相关性判断
大型语言模型
Transformers
英语
R
jhu-clsp
661
1
Modernbert Large Msmarco Bpr
这是一个从ModernBERT-large微调的sentence-transformers模型,用于将句子和段落映射到1024维的密集向量空间,支持语义文本相似性、语义搜索等任务。
文本嵌入
M
BlackBeenie
21
2
Mxbai Rerank Base V1
Apache-2.0
这是一个基于Transformers架构的重新排序(Reranker)模型,主要用于信息检索和搜索结果优化任务。
重排序
Transformers
英语
M
khoj-ai
81
1
Bge Reranker Large Q4 K M GGUF
MIT
该模型是基于BAAI/bge-reranker-large转换而来的GGUF格式模型,用于重排序任务,支持中英文。
文本嵌入
支持多种语言
B
DrRos
164
1
Cross Encoder Binary Topic Classification
这是一个基于Transformer架构的交叉编码器模型,主要用于文本排序任务。
文本嵌入
Transformers
C
enochlev
28
0
Polish Reranker Roberta V2
基于sdadas/polish-roberta-large-v2改进的波兰语重排序模型,采用RankNet损失函数训练,支持Flash Attention 2加速
文本嵌入
Transformers
其他
P
sdadas
961
2
Serafim 100m Portuguese Pt Sentence Encoder Ir
MIT
这是一个基于sentence-transformers的葡萄牙语句子编码器,可将文本映射到768维向量空间,适用于语义搜索和文本聚类等任务。
文本嵌入
Transformers
S
PORTULAN
4,040
1
T5 Query Reformulation RL
Apache-2.0
这是一个专为搜索查询改写设计的生成模型,采用序列到序列架构和强化学习框架来生成多样化且相关的查询改写。
大型语言模型
Transformers
支持多种语言
T
prhegde
366
6
Followir 7B
Apache-2.0
FollowIR-7B 是一个基于 Mistral-7B-Instruct-v0.2 微调的指令检索模型,专注于检索任务中的重排序功能。
大型语言模型
Transformers
英语
F
jhu-clsp
39
15
Splade V3
SPLADE-v3是最新一代SPLADE模型系列,基于SPLADE++SelfDistil开发,采用KL散度与MarginMSE混合训练方式,用于信息检索任务。
文本嵌入
Transformers
英语
S
naver
84.86k
40
Anita
Apache-2.0
专为意大利语问答任务设计的句子转换器模型,能够解析和分析意大利语文本,预测最可能包含答案的上下文。
问答系统
Transformers
其他
A
DeepMount00
134
26
Crossencoder Mminilmv2 L12 Mmarcofr
MIT
这是一个法语交叉编码器模型,用于对问题-段落对进行相关性评分,适用于语义搜索的重排序阶段。
文本嵌入
法语
C
antoinelouis
155
0
Sentece Embeddings BETO
基于sentence-transformers的西班牙语BERT模型,用于生成句子和段落的768维向量表示
文本嵌入
Transformers
S
espejelomar
75
1
Msmarco Distilbert Base V4 Feature Extraction Pipeline
Apache-2.0
这是一个基于DistilBERT的句子转换器模型,专门用于特征提取和句子相似度计算。
文本嵌入
Transformers
M
questgen
36
0
Splade Cocondenser Ensembledistil
用于段落检索的SPLADE模型,通过知识蒸馏提升稀疏神经信息检索效果
文本嵌入
Transformers
英语
S
naver
606.73k
42
Splade Cocondenser Selfdistil
用于段落检索的SPLADE模型,通过稀疏潜在文档扩展和知识蒸馏技术提升检索效果
文本嵌入
Transformers
英语
S
naver
16.11k
10
Doc2query T5 Large Msmarco
Doc2Query 是一个用于文档检索的模型,能够将文档转换为查询,以改进信息检索的效果。
大型语言模型
D
castorini
15
1
Monot5 Large Msmarco
该模型是基于T5-large架构的重新排序器,在MS MARCO段落数据集上进行了10万步(即10个周期)的微调,主要用于文档和段落的重排序任务。
大型语言模型
M
castorini
254
3
Dense Encoder Msmarco Distilbert Word2vec256k MLM 445k Emb Updated
基于MS MARCO数据集训练的句子嵌入模型,使用word2vec初始化的256k词汇表和DistilBERT架构,适用于语义搜索和句子相似度任务
文本嵌入
Transformers
D
vocab-transformers
29
0
Monot5 Base Med Msmarco
基于T5-base架构的文档重新排序模型,先后在MS MARCO和医学领域MedMARCO数据集上微调,优化检索结果的相关性排序。
大型语言模型
M
castorini
153
1
Bert Base Mdoc Bm25
Apache-2.0
这是一个针对MS MARCO文档数据集上的BM25检索器训练的文本重排序模型,主要用于提升文档检索的排序效果。
文本嵌入
英语
B
Luyu
3,668
1