N

Nomic Embed Text V2 Moe Unsupervised

由 nomic-ai 开发
这是一个多语言混合专家(MoE)文本嵌入模型的中间版本,经过多阶段对比训练得到
下载量 161
发布时间 : 2/11/2025
模型介绍
内容详情
替代品

模型简介

该模型是一个多语言文本嵌入模型,采用混合专家(MoE)架构,主要用于文本特征提取和句子相似度计算。

模型特点

混合专家架构
采用MoE架构,能够高效处理多语言文本嵌入任务
多阶段对比训练
经过多阶段对比训练优化,提升了模型性能
多语言支持
支持多种语言的文本嵌入处理

模型能力

文本特征提取
句子相似度计算
多语言文本处理

使用案例

信息检索
语义搜索
用于构建语义搜索引擎,提高搜索结果的相关性
文本分析
文档聚类
基于文本相似度的文档自动分类和聚类