Vica2 Init
Apache-2.0
ViCA2是一个多模态视觉语言模型,专注于视频理解和视觉空间认知任务。
视频生成文本
Transformers

英语
V
nkkbr
30
0
Vica2 Stage2 Onevision Ft
Apache-2.0
ViCA2是一个7B参数规模的多模态视觉语言模型,专注于视频理解和视觉空间认知任务。
视频生成文本
Transformers

英语
V
nkkbr
63
0
Hypencoder.2 Layer
Apache-2.0
Hypencoder是一种用于信息检索的超网络模型,包含文本编码器和Hypencoder两部分,能够将文本转换为小型神经网络并输出相关性分数。
文本嵌入
Transformers

英语
H
jfkback
18
1
Hypencoder.8 Layer
MIT
Hypencoder是一种用于信息检索的双编码器模型,包含文本编码器和超网络(Hypencoder),能够将文本转换为小型神经网络用于计算相关性分数。
文本嵌入
Transformers

英语
H
jfkback
18
1
Gliner Poly Small V1.0
Apache-2.0
GLiNER 是一个灵活的命名实体识别(NER)模型,能够识别任何实体类型,为传统 NER 模型和大型语言模型提供了实用替代方案。
序列标注
其他
G
knowledgator
18
14
Dragon Multiturn Query Encoder
其他
Dragon-multiturn是一款专为对话式问答场景设计的检索器,能处理将会话历史与当前查询相结合的对话式查询。
问答系统
Transformers

英语
D
nvidia
710
59
Nasa Smd Ibm St V2
Apache-2.0
Indus-Retriever是基于nasa-smd-ibm-v0.1编码器模型微调的双编码器句子转换模型,专为NASA科学任务理事会(SMD)的自然语言处理任务设计,提升信息检索和智能搜索能力。
文本嵌入
英语
N
nasa-impact
621
10
Zero Shot Explicit Bi Encoder
MIT
基于BERT架构的零样本文本分类模型,采用显式训练方法在UTCD数据集上训练
文本分类
Transformers

英语
Z
claritylab
31
0
Zero Shot Vanilla Bi Encoder
MIT
基于BERT的双编码器模型,专为零样本文本分类任务设计,在UTCD数据集上训练
文本分类
Transformers

英语
Z
claritylab
27
0
Abstract Sim Sentence Pubmed
该模型用于将生物医学文献中的摘要句子映射到符合描述的句子,专注于句子级别的相似度计算。
文本嵌入
Transformers

英语
A
biu-nlp
26
1
Abstract Sim Query
一个将抽象句子描述映射到符合描述的句子的模型,基于维基百科训练,采用双编码器架构。
文本嵌入
Transformers

英语
A
biu-nlp
53
12
Abstract Sim Sentence
一个将抽象句子描述映射到符合描述的句子的模型,基于维基百科训练,采用双编码器架构。
文本嵌入
Transformers

英语
A
biu-nlp
51
16
Align Base
ALIGN是一个视觉-语言双编码器模型,通过对比学习实现图像与文本表征的对齐,利用大规模噪声数据实现先进的跨模态表征效果。
多模态对齐
Transformers

英语
A
kakaobrain
78.28k
25
Dragon Plus Context Encoder
DRAGON+ 是一个基于BERT架构的密集检索模型,采用非对称双编码器架构,适用于文本检索任务。
文本嵌入
Transformers

D
facebook
4,396
39
Dragon Plus Query Encoder
DRAGON+ 是一个基于 BERT 基础架构的密集检索模型,初始权重源自 RetroMAE,并在 MS MARCO 语料库增强数据上训练而成。
文本嵌入
Transformers

D
facebook
3,918
20
Trans Encoder Bi Simcse Roberta Large
基于RoBERTa-large的无监督句子编码器,通过自蒸馏和互蒸馏技术训练,适用于句子相似度计算任务。
文本嵌入
Transformers

T
cambridgeltl
17
0
Distilbert Dot Tas B B256 Msmarco
基于DistilBert的双编码器点积评分架构,通过平衡主题感知采样在MSMARCO-Passage数据集上训练,适用于密集检索和候选集重排序
文本嵌入
Transformers

英语
D
sebastian-hofstaetter
3,188
23
Bi Electra Ms Marco German Uncased
基于德语ELECTRA模型微调的双编码器,用于德语段落检索任务
文本嵌入
Transformers

B
svalabs
17
10
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文