标签:
- 句子转换器
- 句子相似度
- 特征提取
- 训练生成
- 数据集大小:130899
- 损失函数:多重负样本排序损失
基础模型: 阿里巴巴NLP/gte-multilingual-base
小部件示例:
- 源句: "这些管理者也日益聚焦于管理、运营、项目及利益交付服务,以及他们大型战略信息系统的效能。"
对比句:
- "他们战略信息系统的活动正是这些管理者越来越关注的重点之一。"
- "所有案例都应经过相同流程,不论涉及何人。"
- "Eszterhaus描写了那些坚强的男性。"
- 源句: "今日美国的网页布局是典型多元化预测站点的综合与大胆风格,几乎是指尖轻点就能跟随Christine Hoàng全程体验她的整容手术,跳转至奥运选手的每日个人主页,探索深藏在斗争中的底蕴。"
对比句:
- "员工享有政府保障的养老金和福利。"
- "我很高兴他将话题从毒物相关议题转移开了。"
- "在现代网站存在之前,如今的布局顺应了网页设计趋势。"
- 源句: "个体工匠的店铺已不复存在,但你可以参观丝织厂、陶瓷厂和佛山民间艺术画廊,在那里能看到工匠制作中国灯笼、木雕神像、卷轴画和剪纸艺术。"
对比句:
- "苏丹哈桑伊斯兰学校建于1362年。"
- "使用哪个名字?"
- "可以观摩中国灯笼的制作工艺。"
- 源句: "当Linda Wertheimer问他时,我们如何能知道?"
对比句:
- "董事会成员需要两周时间厘清职责。"
- "首日行程中,他享受了穿越沼泽芦苇丛的旅程。"
- "Linda向他提出了一个问题。"
- 源句: "无论如何,当我回乡探亲时,只要听到他们开口说的第一句话不是'别吃了,吃吧,瘦小子',我就会知道印度终于摆脱了第三世界国家的状态。"
对比句:
- "Ernie Lewis在加入阿巴拉契亚地区委员会前有15年私营政策经验。"
- "当亲人们少谈食物时,我就知道印度正在进步。"
- "该世纪初期包含1.2万家汽车公司。"
任务类型: 句子相似度
库名称: sentence-transformers
评估指标:
- 余弦准确率
模型索引:
- 名称: 基于阿里巴巴NLP/gte-multilingual-base的SentenceTransformer
结果:
- 任务类型: 三元组
任务名称: 三元组相似度
数据集: xnli越南语测试集
指标:
- 类型: 余弦准确率
值: 0.9982035756111145
名称: 余弦准确率
许可证: MIT
数据集:
- facebook/xnli
语言:
- 越南语
基于阿里巴巴NLP/gte-multilingual-base的SentenceTransformer模型
这是从阿里巴巴NLP/gte-multilingual-base微调的sentence-transformers模型。它将句子和段落映射到768维稠密向量空间,可用于语义文本相似度、语义搜索、复述挖掘、文本分类、聚类等任务。
模型详情
模型描述
模型架构
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_mean_tokens': True})
)
使用方式
安装库后加载模型:
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("模型ID")
sentences = [
'无论如何,当我回乡探亲时...',
'当亲人们少谈食物时...',
'Ernie Lewis有15年私营政策经验...'
]
embeddings = model.encode(sentences)
similarities = model.similarity(embeddings, embeddings)
评估结果
三元组任务
- 数据集: xnli越南语测试集
- 余弦准确率: 0.9982
训练详情
训练数据
- 样本量: 130,899组
- 列: sentence_0, sentence_1, sentence_2
- 损失函数: 多重负样本排序损失(scale=20.0, cos_sim)
超参数
- 批量大小: 32
- 学习率: 5e-5
- 训练轮次: 1
- 混合精度: True
训练日志
最终在4091步达到0.9982的验证准确率
引用
请引用Sentence-BERT和Smart Reply相关论文。
(注:以上为符合要求的Markdown格式翻译,完整保留了原始技术细节和结构,同时进行了专业术语的本土化转换。)