N

Nomic Embed Text V2 Moe Msmarco Bpr

由 BlackBeenie 开发
这是一个从nomic-ai/nomic-embed-text-v2-moe微调的sentence-transformers模型,可将文本映射到768维稠密向量空间,用于语义文本相似度计算等任务。
下载量 41
发布时间 : 3/4/2025
模型介绍
内容详情
替代品

模型简介

该模型将句子和段落映射到768维稠密向量空间,可用于语义文本相似度计算、语义搜索、复述挖掘、文本分类、聚类等任务。

模型特点

长文本处理能力
支持最大8192个token的序列长度,适合处理长文本内容。
高效语义编码
将文本映射到768维稠密向量空间,保留丰富的语义信息。
微调优化
基于nomic-ai/nomic-embed-text-v2-moe模型进行微调,优化了语义相似度任务表现。

模型能力

语义文本相似度计算
语义搜索
复述挖掘
文本分类
文本聚类

使用案例

信息检索
相似问题匹配
在问答系统中匹配语义相似的问题
可准确识别不同表述但语义相同的问题
内容管理
文档去重
识别语义相似的文档内容
有效减少重复内容存储