双编码器架构
Vica2 Init
Apache-2.0
ViCA2是一个多模态视觉语言模型,专注于视频理解和视觉空间认知任务。
视频生成文本
Transformers
英语
V
nkkbr
30
0
Vica2 Stage2 Onevision Ft
Apache-2.0
ViCA2是一个7B参数规模的多模态视觉语言模型,专注于视频理解和视觉空间认知任务。
视频生成文本
Transformers
英语
V
nkkbr
63
0
Hypencoder.2 Layer
Apache-2.0
Hypencoder是一种用于信息检索的超网络模型,包含文本编码器和Hypencoder两部分,能够将文本转换为小型神经网络并输出相关性分数。
文本嵌入
Transformers
英语
H
jfkback
18
1
Hypencoder.8 Layer
MIT
Hypencoder是一种用于信息检索的双编码器模型,包含文本编码器和超网络(Hypencoder),能够将文本转换为小型神经网络用于计算相关性分数。
文本嵌入
Transformers
英语
H
jfkback
18
1
Gliner Poly Small V1.0
Apache-2.0
GLiNER 是一个灵活的命名实体识别(NER)模型,能够识别任何实体类型,为传统 NER 模型和大型语言模型提供了实用替代方案。
序列标注
其他
G
knowledgator
18
14
Dragon Multiturn Query Encoder
其他
Dragon-multiturn是一款专为对话式问答场景设计的检索器,能处理将会话历史与当前查询相结合的对话式查询。
问答系统
Transformers
英语
D
nvidia
710
59
Nasa Smd Ibm St V2
Apache-2.0
Indus-Retriever是基于nasa-smd-ibm-v0.1编码器模型微调的双编码器句子转换模型,专为NASA科学任务理事会(SMD)的自然语言处理任务设计,提升信息检索和智能搜索能力。
文本嵌入
英语
N
nasa-impact
621
10
Zero Shot Explicit Bi Encoder
MIT
基于BERT架构的零样本文本分类模型,采用显式训练方法在UTCD数据集上训练
文本分类
Transformers
英语
Z
claritylab
31
0
Zero Shot Vanilla Bi Encoder
MIT
基于BERT的双编码器模型,专为零样本文本分类任务设计,在UTCD数据集上训练
文本分类
Transformers
英语
Z
claritylab
27
0
Abstract Sim Sentence Pubmed
该模型用于将生物医学文献中的摘要句子映射到符合描述的句子,专注于句子级别的相似度计算。
文本嵌入
Transformers
英语
A
biu-nlp
26
1
Abstract Sim Query
一个将抽象句子描述映射到符合描述的句子的模型,基于维基百科训练,采用双编码器架构。
文本嵌入
Transformers
英语
A
biu-nlp
53
12
Abstract Sim Sentence
一个将抽象句子描述映射到符合描述的句子的模型,基于维基百科训练,采用双编码器架构。
文本嵌入
Transformers
英语
A
biu-nlp
51
16
Align Base
ALIGN是一个视觉-语言双编码器模型,通过对比学习实现图像与文本表征的对齐,利用大规模噪声数据实现先进的跨模态表征效果。
多模态对齐
Transformers
英语
A
kakaobrain
78.28k
25
Dragon Plus Context Encoder
DRAGON+ 是一个基于BERT架构的密集检索模型,采用非对称双编码器架构,适用于文本检索任务。
文本嵌入
Transformers
D
facebook
4,396
39
Dragon Plus Query Encoder
DRAGON+ 是一个基于 BERT 基础架构的密集检索模型,初始权重源自 RetroMAE,并在 MS MARCO 语料库增强数据上训练而成。
文本嵌入
Transformers
D
facebook
3,918
20
Trans Encoder Bi Simcse Roberta Large
基于RoBERTa-large的无监督句子编码器,通过自蒸馏和互蒸馏技术训练,适用于句子相似度计算任务。
文本嵌入
Transformers
T
cambridgeltl
17
0
Distilbert Dot Tas B B256 Msmarco
基于DistilBert的双编码器点积评分架构,通过平衡主题感知采样在MSMARCO-Passage数据集上训练,适用于密集检索和候选集重排序
文本嵌入
Transformers
英语
D
sebastian-hofstaetter
3,188
23
Bi Electra Ms Marco German Uncased
基于德语ELECTRA模型微调的双编码器,用于德语段落检索任务
文本嵌入
Transformers
B
svalabs
17
10