密集检索
Nomic Embed Multimodal 7b
Apache-2.0
70亿参数的多模态嵌入模型,专精于视觉文档检索任务,在Vidore-v2基准测试中表现卓越
文本生成图像
支持多种语言
N
nomic-ai
741
26
Nomic Embed Multimodal 3b
Nomic Embed Multimodal 3B是一款顶尖的多模态嵌入模型,专注于视觉文档检索任务,支持统一文本-图像编码,在Vidore-v2测试中达到58.8 NDCG@5的卓越性能。
文本生成图像
支持多种语言
N
nomic-ai
3,431
11
Medcpt Query Encoder
其他
MedCPT 是一个能够生成生物医学文本嵌入向量的模型,特别适用于语义搜索(密集检索)任务。
文本嵌入
Transformers
M
ncbi
73.74k
40
Medcpt Article Encoder
其他
MedCPT 是一个能够生成生物医学文本嵌入表示的模型,特别适用于语义搜索(密集检索)任务。
文本嵌入
Transformers
M
ncbi
14.37k
24
Dragon Plus Context Encoder
DRAGON+ 是一个基于BERT架构的密集检索模型,采用非对称双编码器架构,适用于文本检索任务。
文本嵌入
Transformers
D
facebook
4,396
39
Dragon Plus Query Encoder
DRAGON+ 是一个基于 BERT 基础架构的密集检索模型,初始权重源自 RetroMAE,并在 MS MARCO 语料库增强数据上训练而成。
文本嵌入
Transformers
D
facebook
3,918
20
T5 Ance
MIT
T5-ANCE是基于MS MARCO段落数据集训练的密集检索模型,采用T5架构和ANCE训练流程优化,适用于信息检索任务。
文本嵌入
Transformers
T
OpenMatch
893
1
Spar Wiki Bm25 Lexmodel Query Encoder
基于BERT-base架构的密集检索器,在维基百科文章上训练,旨在模仿BM25的行为
文本嵌入
Transformers
S
facebook
80
2
Rankgen T5 Xl All
Apache-2.0
RankGen是一套编码器模型,能够将预训练语言模型的前缀和生成内容映射到共享向量空间,用于提升生成质量和检索性能。
大型语言模型
Transformers
英语
R
kalpeshk2011
4,535
1
Scincl Wol
MIT
基于无SciDocs泄漏训练数据的科学文献嵌入模型
大型语言模型
Transformers
S
malteos
127
0
Tct Colbert V2 Hnp Msmarco
TCT-ColBERT-V2是基于紧密耦合教师机制与批内负样本知识蒸馏的密集检索模型,用于高效文本检索。
文本嵌入
Transformers
T
castorini
1,382
4
Contriever Msmarco
基于Contriever预训练模型的微调版本,专为密集信息检索任务优化,采用对比学习方法训练
文本嵌入
Transformers
C
facebook
24.08k
27