许可证: mit
语言:
标签:
- mteb
- 文本嵌入推理
- llama-cpp
- gguf-my-repo
管道标签: 文本分类
库名称: sentence-transformers
基础模型: BAAI/bge-reranker-base
模型索引:
- 名称: bge-reranker-base
结果:
-
任务:
类型: 重排序
数据集:
名称: MTEB CMedQAv1
类型: C-MTEB/CMedQAv1-reranking
配置: 默认
分割: 测试
修订: 无
指标:
- 类型: map
值: 81.27206722525007
- 类型: mrr
值: 84.14238095238095
-
任务:
类型: 重排序
数据集:
名称: MTEB CMedQAv2
类型: C-MTEB/CMedQAv2-reranking
配置: 默认
分割: 测试
修订: 无
指标:
- 类型: map
值: 84.10369934291236
- 类型: mrr
值: 86.79376984126984
-
任务:
类型: 重排序
数据集:
名称: MTEB MMarcoReranking
类型: C-MTEB/Mmarco-reranking
配置: 默认
分割: 开发集
修订: 无
指标:
- 类型: map
值: 35.4600511272538
- 类型: mrr
值: 34.60238095238095
-
任务:
类型: 重排序
数据集:
名称: MTEB T2Reranking
类型: C-MTEB/T2Reranking
配置: 默认
分割: 开发集
修订: 无
指标:
- 类型: map
值: 67.27728847727172
- 类型: mrr
值: 77.1315192743764
xinming0111/bge-reranker-base-Q8_0-GGUF
此模型是从 BAAI/bge-reranker-base
通过 llama.cpp 使用 ggml.ai 的 GGUF-my-repo 空间转换为 GGUF 格式。
有关模型的更多详细信息,请参阅 原始模型卡片。
与 llama.cpp 一起使用
通过 brew 安装 llama.cpp(适用于 Mac 和 Linux)
brew install llama.cpp
调用 llama.cpp 服务器或 CLI。
CLI:
llama-cli --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -p "生命和宇宙的意义是"
服务器:
llama-server --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -c 2048
注意:您也可以通过 Llama.cpp 仓库中列出的 使用步骤 直接使用此检查点。
步骤 1:从 GitHub 克隆 llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
步骤 2:进入 llama.cpp 文件夹并使用 LLAMA_CURL=1
标志以及其他硬件特定标志(例如:Linux 上 Nvidia GPU 的 LLAMA_CUDA=1
)构建。
cd llama.cpp && LLAMA_CURL=1 make
步骤 3:通过主二进制文件运行推理。
./llama-cli --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -p "生命和宇宙的意义是"
或
./llama-server --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -c 2048