Finetuned Cross Encoder L6 V2
这是一个基于cross-encoder/ms-marco-MiniLM-L6-v2微调的交叉编码器模型,主要用于文本重排序和语义搜索任务。
文本嵌入
F
CharlesPing
22
1
Bge Reranker Ft
这是一个从BAAI/bge-reranker-base微调而来的交叉编码器模型,用于文本对评分,适用于文本重排序和语义搜索任务。
文本嵌入
B
foochun
70
0
Reranker Gte Multilingual Base Msmarco Bce Ep 2
基于sentence-transformers库在msmarco数据集上训练的交叉编码器模型,用于文本重排序和语义搜索
文本嵌入
支持多种语言
R
skfrost19
28
0
Reranker MiniLM L6 H384 Uncased Gooaq 5 Epoch 1995000
Apache-2.0
这是一个从nreimers/MiniLM-L6-H384-uncased微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
ayushexel
24
0
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
483
2
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
89
4
Mixedbread Ai.mxbai Rerank Large V2 GGUF
mxbai-rerank-large-v2 是一个用于文本排序的基础模型,专注于提升搜索结果的相关性和准确性。
文本嵌入
M
DevQuasar
938
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
这是一个基于MiniLM-L12-H384-uncased微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入
英语
R
tomaarsen
1,019
3
Lightblue Reranker 0.5 Cont Gguf
这是一个文本排序模型,用于对文本进行重新排序和评分。
文本嵌入
L
RichardErkhov
1,986
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Newer Small Gguf
基于Qwen2.5架构的0.5亿参数文本排序模型,适用于信息检索和文档排序任务
大型语言模型
J
RichardErkhov
2,117
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker New Small Gguf
基于Qwen2.5架构的0.5B参数规模的文本排序模型,适用于重排序任务。
大型语言模型
J
RichardErkhov
2,454
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Gguf
基于Qwen2.5架构的0.5B参数文本排序模型,使用Unsloth和TRL库高效训练
大型语言模型
J
RichardErkhov
2,119
0
Mxbai Rerank Base V1
Apache-2.0
这是一个基于Transformers架构的重新排序(Reranker)模型,主要用于信息检索和搜索结果优化任务。
重排序
Transformers

英语
M
khoj-ai
81
1
Bge Reranker Base Q8 0 GGUF
MIT
该模型是从BAAI/bge-reranker-base转换而来的GGUF格式模型,主要用于文本重排序任务。
文本嵌入
支持多种语言
B
xinming0111
106
1
Thusinh1969 Gemma2 2b Rerank Checkpoint 8800 Gguf
基于Gemma 2B架构的文本排序模型,提供多种量化版本以适应不同硬件需求
文本排序
T
RichardErkhov
71
0
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2的ONNX O4版本是一个经过优化的文本重排序模型,支持多语言文本对的相关性评分。
文本分类
Transformers

B
hooman650
39
5
Trecdl22 Crossencoder Debertav3
一个基于Transformer架构的文本排序模型,用于对句子或段落进行相关性排序。
文本嵌入
T
naver
9,226
1
Monot5 Base Msmarco
基于T5-base架构的重新排序模型,在MS MARCO段落数据集上微调10万步,适用于信息检索中的文档重排序任务。
大型语言模型
M
castorini
7,405
11
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文