许可证: mit
数据集:
- hpprc/emb
- hotchpotch/hpprc_emb-scores
- microsoft/ms_marco
- hotchpotch/japanese-splade-v1-hard-negatives
- hpprc/msmarco-ja
语言:
- ja
基础模型:
- cl-nagoya/ruri-v3-pt-30m
库名称: sentence-transformers
管道标签: text-ranking
hotchpotch/japanese-reranker-tiny-v2
这是非常小巧且快速的日语重排序模型系列(v2)。
关于重排序器的技术报告和评估,请参考以下内容:

使用方法
运行需要 transformers 库的 v4.48 或更高版本。
pip install -U "transformers>=4.48.0" sentence-transformers sentencepiece
如果 GPU 支持 Flash Attention 2,安装 flash-attn 库可以实现更快的推理。
pip install flash-attn --no-build-isolation
SentenceTransformers
from sentence_transformers import CrossEncoder
import torch
MODEL_NAME = "hotchpotch/japanese-reranker-tiny-v2"
model = CrossEncoder(MODEL_NAME)
if model.device == "cuda" or model.device == "mps":
model.model.half()
query = "关于感人的电影"
passages = [
"拥有深刻的主题,同时震撼观众心灵的杰作。角色心理描写出色,结局让人泪流满面。",
"虽然传达的信息值得肯定,但剧情过于阴暗,让人心情低落。如果能多一些明亮的元素会更好。",
"剧情发展缺乏真实感,让人难以投入。更希望看到有深度的人性戏剧。",
"动作场面非常精彩,看得人目不转睛。剧情虽然简单,但反而恰到好处。",
]
scores = model.predict(
[(query, passage) for passage in passages],
show_progress_bar=True,
)
print("得分:", scores)
SentenceTransformers + onnx 的使用
在 CPU 环境或 arm 环境中,可以使用 onnx 或量化模型来获得更快的运行速度。
pip install onnx onnxruntime accelerate optimum
from sentence_transformers import CrossEncoder
onnx_filename = "onnx/model_qint8_arm64.onnx"
if onnx_filename:
model = CrossEncoder(
MODEL_NAME,
device="cpu",
backend="onnx",
model_kwargs={"file_name": onnx_filename},
)
else:
model = CrossEncoder(MODEL_NAME, device="cpu", backend="onnx")
...
HuggingFace transformers
from transformers import AutoTokenizer, AutoModelForSequenceClassification
from torch.nn import Sigmoid
def detect_device():
if torch.cuda.is_available():
return "cuda"
elif hasattr(torch, "mps") and torch.mps.is_available():
return "mps"
return "cpu"
device = detect_device()
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForSequenceClassification.from_pretrained(MODEL_NAME)
model.to(device)
model.eval()
if device == "cuda":
model.half()
query = "关于感人的电影"
passages = [
"拥有深刻的主题,同时震撼观众心灵的杰作。角色心理描写出色,结局让人泪流满面。",
"虽然传达的信息值得肯定,但剧情过于阴暗,让人心情低落。如果能多一些明亮的元素会更好。",
"剧情发展缺乏真实感,让人难以投入。更希望看到有深度的人性戏剧。",
"动作场面非常精彩,看得人目不转睛。剧情虽然简单,但反而恰到好处。",
]
inputs = tokenizer(
[(query, passage) for passage in passages],
padding=True,
truncation=True,
max_length=512,
return_tensors="pt",
)
inputs = {k: v.to(device) for k, v in inputs.items()}
logits = model(**inputs).logits
activation = Sigmoid()
scores = activation(logits).squeeze().tolist()
print("得分:", scores)
小型重排序器的特点
japanese-reranker-tiny-v2 和 japanese-reranker-xsmall-v2 是具有以下特点的小型重排序模型:
- 在 CPU 或 Apple Silicon 环境下也能以实用速度运行
- 无需昂贵 GPU 资源即可提升 RAG 系统的精度
- 适用于边缘设备部署或对延迟要求较高的生产环境
- 基于 ModernBert 的 ruri-v3-pt-30m
评估结果
推理速度
以下是约15万对数据进行重排序时的推理速度结果(不包括分词时间的纯模型推理时间)。MPS(Apple Silicon)和 CPU 测试使用 M4 Max,GPU 使用 RTX5090。GPU 处理时使用了 flash-attention2。