Nomic Embed Multimodal 7b
Apache-2.0
70亿参数的多模态嵌入模型,专精于视觉文档检索任务,在Vidore-v2基准测试中表现卓越
文本生成图像
支持多种语言
N
nomic-ai
741
26
Nomic Embed Multimodal 3b
Nomic Embed Multimodal 3B是一款顶尖的多模态嵌入模型,专注于视觉文档检索任务,支持统一文本-图像编码,在Vidore-v2测试中达到58.8 NDCG@5的卓越性能。
文本生成图像
支持多种语言
N
nomic-ai
3,431
11
Medcpt Query Encoder
其他
MedCPT 是一个能够生成生物医学文本嵌入向量的模型,特别适用于语义搜索(密集检索)任务。
文本嵌入
Transformers

M
ncbi
73.74k
40
Medcpt Article Encoder
其他
MedCPT 是一个能够生成生物医学文本嵌入表示的模型,特别适用于语义搜索(密集检索)任务。
文本嵌入
Transformers

M
ncbi
14.37k
24
Dragon Plus Context Encoder
DRAGON+ 是一个基于BERT架构的密集检索模型,采用非对称双编码器架构,适用于文本检索任务。
文本嵌入
Transformers

D
facebook
4,396
39
Dragon Plus Query Encoder
DRAGON+ 是一个基于 BERT 基础架构的密集检索模型,初始权重源自 RetroMAE,并在 MS MARCO 语料库增强数据上训练而成。
文本嵌入
Transformers

D
facebook
3,918
20
T5 Ance
MIT
T5-ANCE是基于MS MARCO段落数据集训练的密集检索模型,采用T5架构和ANCE训练流程优化,适用于信息检索任务。
文本嵌入
Transformers

T
OpenMatch
893
1
Spar Wiki Bm25 Lexmodel Query Encoder
基于BERT-base架构的密集检索器,在维基百科文章上训练,旨在模仿BM25的行为
文本嵌入
Transformers

S
facebook
80
2
Rankgen T5 Xl All
Apache-2.0
RankGen是一套编码器模型,能够将预训练语言模型的前缀和生成内容映射到共享向量空间,用于提升生成质量和检索性能。
大型语言模型
Transformers

英语
R
kalpeshk2011
4,535
1
Scincl Wol
MIT
基于无SciDocs泄漏训练数据的科学文献嵌入模型
大型语言模型
Transformers

S
malteos
127
0
Tct Colbert V2 Hnp Msmarco
TCT-ColBERT-V2是基于紧密耦合教师机制与批内负样本知识蒸馏的密集检索模型,用于高效文本检索。
文本嵌入
Transformers

T
castorini
1,382
4
Contriever Msmarco
基于Contriever预训练模型的微调版本,专为密集信息检索任务优化,采用对比学习方法训练
文本嵌入
Transformers

C
facebook
24.08k
27
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文