语言:
- 韩语
- 英语
- 中文
许可证: mit
任务标签: 文本排序
标签:
- transformers
- sentence-transformers
- 文本嵌入推理
upskyy/ko-reranker
ko-reranker是基于BAAI/bge-reranker-large模型,使用韩语数据进行微调的模型。
使用方法
使用FlagEmbedding
pip install -U FlagEmbedding
获取相关性分数(分数越高表示相关性越强):
from FlagEmbedding import FlagReranker
reranker = FlagReranker('upskyy/ko-reranker', use_fp16=True)
score = reranker.compute_score(['查询', '段落'])
print(score)
score = reranker.compute_score(['查询', '段落'], normalize=True)
print(score)
scores = reranker.compute_score([['熊猫是什么?', '嗨'], ['熊猫是什么?', '大熊猫(学名:Ailuropoda melanoleuca),有时被称为熊猫熊或简称熊猫,是中国特有的熊科动物。']])
print(scores)
scores = reranker.compute_score([['熊猫是什么?', '嗨'], ['熊猫是什么?', '大熊猫(学名:Ailuropoda melanoleuca),有时被称为熊猫熊或简称熊猫,是中国特有的熊科动物。']], normalize=True)
print(scores)
使用Sentence-Transformers
pip install -U sentence-transformers
获取相关性分数(分数越高表示相关性越强):
from sentence_transformers import SentenceTransformer
sentences_1 = ["经济专家正在预测利率下调。", "股票市场上一位投资者正在买入股票。"]
sentences_2 = ["一位投资者正在买入比特币。", "金融交易所上市了新的数字资产。"]
model = SentenceTransformer('upskyy/ko-reranker')
embeddings_1 = model.encode(sentences_1, normalize_embeddings=True)
embeddings_2 = model.encode(sentences_2, normalize_embeddings=True)
similarity = embeddings_1 @ embeddings_2.T
print(similarity)
使用Huggingface transformers
获取相关性分数(分数越高表示相关性越强):
import torch
from transformers import AutoModelForSequenceClassification, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained('upskyy/ko-reranker')
model = AutoModelForSequenceClassification.from_pretrained('upskyy/ko-reranker')
model.eval()
pairs = [['熊猫是什么?', '嗨'], ['熊猫是什么?', '大熊猫(学名:Ailuropoda melanoleuca),有时被称为熊猫熊或简称熊猫,是中国特有的熊科动物。']]
with torch.no_grad():
inputs = tokenizer(pairs, padding=True, truncation=True, return_tensors='pt', max_length=512)
scores = model(**inputs, return_dict=True).logits.view(-1, ).float()
print(scores)
引用
@misc{bge_embedding,
title={C-Pack: Packaged Resources To Advance General Chinese Embedding},
author={Shitao Xiao and Zheng Liu and Peitian Zhang and Niklas Muennighoff},
year={2023},
eprint={2309.07597},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
许可证
FlagEmbedding采用MIT许可证发布。发布的模型可以免费用于商业用途。
参考