🚀 embaas/sentence-transformers-e5-large-v2
这是 intfloat/e5-large-v2 模型的 sentence-transformers 版本。它能将句子和段落映射到一个 1024 维的密集向量空间,可用于聚类或语义搜索等任务。
🚀 快速开始
本模型可以通过两种方式使用,分别是使用 sentence-transformers
库和使用 embaas API,下面为你详细介绍。
✨ 主要特性
- 支持 sentence-transformers 库,使用方便。
- 可通过 embaas API 进行输入编码。
- 可将句子和段落映射到 1024 维的密集向量空间。
📦 安装指南
若要使用 sentence-transformers
库调用此模型,你需要先安装 sentence-transformers
:
pip install -U sentence-transformers
💻 使用示例
基础用法
使用 sentence-transformers
库调用模型的示例代码如下:
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('embaas/sentence-transformers-e5-large-v2')
embeddings = model.encode(sentences)
print(embeddings)
高级用法
使用 embaas API 对输入进行编码。你可以从 embaas.io 获取免费的 API 密钥。
import requests
url = "https://api.embaas.io/v1/embeddings/"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer ${YOUR_API_KEY}"
}
data = {
"texts": ["This is an example sentence.", "Here is another sentence."],
"instruction": "query",
"model": "e5-large-v2"
}
response = requests.post(url, json=data, headers=headers)
📚 详细文档
评估结果
你可以在 MTEB 排行榜 上查看 e5 模型的评估结果。
完整模型架构
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False})
(2): Normalize()
)
引用与作者
关于该模型的更多信息,请参考相关文档。
属性 |
详情 |
模型类型 |
sentence-transformers 版本的 e5-large-v2 模型 |
训练数据 |
未提及 |
⚠️ 重要提示
使用 embaas API 时,需要从 embaas.io 获取有效的 API 密钥。
💡 使用建议
若要使用 sentence-transformers
库调用模型,请确保已正确安装该库。