N

Nomic Embed Text V2 Moe

由 nomic-ai 开发
Nomic Embed v2 是一款高性能多语言专家混合(MoE)文本嵌入模型,支持约100种语言,在多语言检索任务中表现卓越。
下载量 242.32k
发布时间 : 2/7/2025
模型介绍
内容详情
替代品

模型简介

该模型采用专家混合架构,结合套娃嵌入技术,提供灵活的嵌入维度选择,在多语言文本相似度和检索任务中达到领先水平。

模型特点

多语言专家混合架构
采用8专家混合架构,在保持高效推理的同时提升多语言性能
套娃嵌入技术
支持从768到256维的灵活嵌入维度选择,显著降低存储成本
广泛语言支持
支持约100种语言,训练数据超过16亿对
开源透明
完全开源模型权重、训练代码和训练数据

模型能力

多语言文本嵌入
句子相似度计算
特征提取
跨语言检索

使用案例

信息检索
跨语言文档检索
在不同语言文档间建立语义关联,实现跨语言搜索
在MIRACL基准测试中达到65.80分
语义分析
多语言文本相似度计算
计算不同语言文本之间的语义相似度
支持约100种语言的相似度分析