语言:
- tr
标签:
- 句子转换器
- 句子相似度
- 特征提取
- 训练生成
- 数据集大小:482091
- 损失函数:多重负例排序损失
基础模型: intfloat/multilingual-e5-small
小部件:
- 源句: 或者出去走走,或者跑跑步。我不经常这样做,但华盛顿是个做这些的好地方。
句子:
- "华盛顿是散步或跑步的好地方。"
- H-2A外星人在美国停留的时间很短。
- "我在华盛顿经常散步或跑步。"
- 源句: 中部高原和南部海岸之间的对比再明显不过了。
句子:
- 听力辅助兼容性谈判规则委员会是联邦通信委员会的产物。
- 山地和海岸之间的对比很容易标记。
- 对比无法标记。
- 源句: 1997年亨利·J·凯泽家庭基金会的一项调查发现,美国人对管理式医疗计划基本满意。
句子:
- 追踪老虎时必须非常安静。
- 亨利·凯泽基金会显示人们喜欢医疗服务。
- 亨利·凯泽基金会显示人们讨厌医疗服务。
- 源句: 我确信他们做了。
句子:
- 我确信他们做了。
- 西德克萨斯州的气温是100华氏度。
- 我确信他们没有做。
- 源句: 事实上,父亲是对的,儿子已经体验过一切,尝试过所有事情,兴趣减少了。
句子:
- 儿子对一切失去了兴趣。
- 我没做什么。
- 父亲知道儿子还有很多事情要体验。
数据集:
- emrecan/all-nli-tr
管道标签: 句子相似度
库名称: sentence-transformers
指标:
- 余弦准确度
模型索引:
- 名称: 基于intfloat/multilingual-e5-small的SentenceTransformer
结果:
- 任务:
类型: 三元组
名称: 三元组
数据集:
名称: all nli dev
类型: all-nli-dev
指标:
- 类型: 余弦准确度
值: 0.927973210811615
名称: 余弦准确度
基于intfloat/multilingual-e5-small的SentenceTransformer
这是一个从intfloat/multilingual-e5-small微调而来的sentence-transformers模型,使用了all-nli-tr数据集。它将句子和段落映射到384维的密集向量空间,可用于语义文本相似度、语义搜索、释义挖掘、文本分类、聚类等任务。
模型详情
模型描述
模型来源
完整模型架构
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
使用
直接使用 (Sentence Transformers)
首先安装Sentence Transformers库:
pip install -U sentence-transformers
然后可以加载此模型并运行推理。
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("x1saint/intfloat-triplet-v2")
sentences = [
'事实上,父亲是对的,儿子已经体验过一切,尝试过所有事情,兴趣减少了。',
'儿子对一切失去了兴趣。',
'父亲知道儿子还有很多事情要体验。',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
评估
指标
三元组
训练详情
训练数据集
all-nli-tr
评估数据集
all-nli-tr
训练超参数
非默认超参数
eval_strategy
: steps
per_device_train_batch_size
: 256
per_device_eval_batch_size
: 256
gradient_accumulation_steps
: 4
num_train_epochs
: 10
warmup_ratio
: 0.1
bf16
: True
dataloader_num_workers
: 4
训练日志
周期 |
步数 |
训练损失 |
验证损失 |
all-nli-dev_余弦准确度 |
1.0616 |
500 |
6.0902 |
0.7763 |
0.9024 |
2.1231 |
1000 |
3.6464 |
0.6962 |
0.9156 |
3.1847 |
1500 |
3.1127 |
0.6679 |
0.9191 |
4.2463 |
2000 |
2.8153 |
0.6608 |
0.9233 |
5.3079 |
2500 |
2.5886 |
0.6506 |
0.9252 |
6.3694 |
3000 |
2.4437 |
0.6478 |
0.9252 |
7.4310 |
3500 |
2.3393 |
0.6456 |
0.9263 |
8.4926 |
4000 |
2.2521 |
0.6414 |
0.9284 |
9.5541 |
4500 |
2.1913 |
0.6397 |
0.9280 |
框架版本
- Python: 3.11.11
- Sentence Transformers: 3.4.1
- Transformers: 4.48.3
- PyTorch: 2.5.1+cu124
- Accelerate: 1.3.0
- Datasets: 3.3.0
- Tokenizers: 0.21.0
引用
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}