信息检索
Chonky Modernbert Large 1
MIT
Chonky是一款能够智能地将文本分割成有意义的语义块的Transformer模型,适用于RAG系统。
序列标注
Transformers
英语
C
mirth
54
2
Set Encoder Novelty Base
Apache-2.0
Set-Encoder是一种专为高效且具有置换不变性的段落重排序设计的跨编码器架构,特别适用于新颖性感知重排序任务。
文本嵌入
S
webis
14
0
Lightblue Reranker 0.5 Bincont Filt Gguf
这是一个文本排序模型,用于对文本进行相关性排序。
文本嵌入
L
RichardErkhov
2,054
0
Rank1 0.5b
MIT
rank1是一款基于Qwen2.5-0.5B训练的信息检索重排序模型,通过生成推理链提升相关性判断准确性。
大型语言模型
Transformers
英语
R
jhu-clsp
21
0
Set Encoder Base
Apache-2.0
Set-Encoder是一种专为高效且具有置换不变性的段落重排设计的交叉编码器架构。
文本嵌入
S
webis
295
1
Crossencoder Mdebertav3 Base Mmarcofr
MIT
这是一个基于mDeBERTa-v3-base的法语交叉编码器模型,专门用于段落重排序任务,在mMARCO-fr数据集上表现出色。
文本嵌入
法语
C
antoinelouis
111
1
Robbert 2023 Dutch Base Cross Encoder
一个基于transformers库的句子嵌入模型,用于生成句子的向量表示,支持文本排序任务。
文本嵌入
Transformers
R
NetherlandsForensicInstitute
118
2
K Finance Sentence Transformer
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和聚类任务。
文本嵌入
Transformers
K
ohsuz
160
1
Polish Reranker Base Ranknet
Apache-2.0
基于RankNet损失函数训练的波兰语文本排序模型,适用于信息检索任务
文本嵌入
Transformers
其他
P
sdadas
332
1
Gte Large Onnx
Apache-2.0
GTE-Large是一个基于ONNX移植的文本嵌入模型,适用于文本分类和相似性搜索任务。
文本嵌入
Transformers
G
Qdrant
597
2
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(我必须得到更好的消息)是波兰语的神经文本编码器,针对信息检索任务进行了优化,能够将查询和段落转换为768维向量。
文本嵌入
Transformers
其他
M
sdadas
408
1
Gte Tiny
GTE Tiny 是一个小型通用文本嵌入模型,适用于多种自然语言处理任务。
文本嵌入
Transformers
G
TaylorAI
74.46k
138
Crossencoder Electra Base Mmarcofr
MIT
这是一个基于ELECTRA架构的法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
18
0
Dragon Plus Context Encoder
DRAGON+ 是一个基于BERT架构的密集检索模型,采用非对称双编码器架构,适用于文本检索任务。
文本嵌入
Transformers
D
facebook
4,396
39
Raw 2 No 1 Test 2 New.model
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于句子相似度计算、语义搜索等任务。
文本嵌入
Transformers
R
Wheatley961
13
0
Bertje Visio Retriever
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于句子相似度计算、语义搜索等任务。
文本嵌入
Transformers
B
GeniusVoice
14
0
July25test
这是一个基于sentence-transformers的句子嵌入模型,能够将文本转换为768维的向量表示,适用于句子相似度计算和语义搜索等任务。
文本嵌入
Transformers
J
NimaBoscarino
36
0
Ukhushn
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers
U
Ukhushn
35
0
Healthcare 27.03.2021 27.03.2022 Redditflow
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维密集向量空间,适用于句子相似度计算、语义搜索等任务。
文本嵌入
Transformers
H
NFflow
31
0
English Phrases Bible
Apache-2.0
基于DistilBert TAS-B模型的句子嵌入模型,针对语义搜索任务优化,可将文本映射到768维向量空间
文本嵌入
Transformers
E
iamholmes
28
0
Nfcorpus Tsdae Msmarco Distilbert Gpl
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于句子相似度计算、语义搜索等任务。
文本嵌入
Transformers
N
GPL
31
0
Climate Fever Tsdae Msmarco Distilbert Gpl
这是一个基于sentence-transformers的句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和文本相似度计算等任务。
文本嵌入
Transformers
C
GPL
31
0
Webis Touche2020 Distilbert Tas B Gpl Self Miner
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于句子相似度计算和语义搜索等任务。
文本嵌入
Transformers
W
GPL
31
0
Msmarco MiniLM L12 En De V1
Apache-2.0
基于MS Marco段落排序任务训练的英德跨语言交叉编码器模型,适用于信息检索场景的段落重排序。
文本嵌入
Transformers
支持多种语言
M
cross-encoder
19.62k
5
Msmarco MiniLM L6 En De V1
Apache-2.0
这是一个适用于英德双语段落重排序任务的跨语言交叉编码器模型,基于MS Marco段落排序任务训练而成。
文本嵌入
Transformers
支持多种语言
M
cross-encoder
2,784
12
Dpr Question Encoder Bert Uncased L 2 H 128 A 2
Apache-2.0
基于BERT架构的DPR问题编码器模型,用于密集段落检索任务
文本嵌入
Transformers
D
nlpconnect
21
0
Distilbert Base Mean Pooling
这是一个基于DistilBERT的句子嵌入模型,能够将文本转换为768维的向量表示,适用于句子相似度计算和语义搜索任务。
文本嵌入
Transformers
D
jgammack
2,340
5
Contriever Msmarco
基于Contriever预训练模型的微调版本,专为密集信息检索任务优化,采用对比学习方法训练
文本嵌入
Transformers
C
facebook
24.08k
27
Mt5 Base Finetuned Tydiqa Xqa
该模型是基于谷歌mT5-base在TyDi QA数据集上微调的多语言问答模型,支持101种语言的问答任务。
问答系统
Transformers
其他
M
Narrativa
368
6
Bioasq 1m Tsdae Msmarco Distilbert Gpl
这是一个基于sentence-transformers的句子嵌入模型,能够将文本转换为768维的向量表示,适用于语义搜索和文本相似度计算等任务。
文本嵌入
Transformers
B
GPL
31
0