Terjman Nano V2.0
Terjman-Nano-v2.0是基于Transformer架构的英语-摩洛哥方言翻译模型,参数规模77M,专为高质量精准翻译而优化。
机器翻译
Transformers

支持多种语言
T
atlasia
95
2
Spec Vision V1
MIT
Spec-Vision-V1是一款轻量级、最先进的开源多模态模型,专为深度整合视觉与文本数据而构建,支持128K的上下文长度。
文本生成图像
Transformers

其他
S
SVECTOR-CORPORATION
17
1
Spam Mail Classifier
Apache-2.0
基于microsoft/Multilingual-MiniLM-L12-H384微调的文本分类模型,用于将邮件主题分类为垃圾邮件(SPAM)或非垃圾邮件(NOSPAM)。
文本分类
Transformers

S
Goodmotion
943
3
Segformer B0 512x1024 City 160k
其他
基于Segformer架构的轻量级语义分割模型,预训练于Cityscapes数据集
图像分割
S
smp-hub
44
0
Sapiens Depth 0.3b Torchscript
Sapiens 是一个基于 3 亿张 1024 x 1024 分辨率人类图像预训练的视觉变换器家族,用于深度估计任务。
3D视觉
英语
S
facebook
69
0
Sat 3l Sm
MIT
采用3层Transformer架构的顶尖句子分割技术,支持多语言文本分割。
序列标注
Transformers

支持多种语言
S
segment-any-text
168.01k
6
Meshgpt Preview
Apache-2.0
MeshGPT是基于自编码器和Transformer的文本生成3D模型,全球首个公开的3D模型分词器。
3D视觉
Transformers

M
MarcusLoren
254
49
Octo Small 1.5
MIT
Octo小型版是一个用于机器人控制的扩散策略模型,采用Transformer架构,能够根据视觉输入和语言指令预测机器人动作。
多模态融合
Transformers

O
rail-berkeley
250
6
Paraphrase MiniLM L6 V2 Finetune Summary
基于sentence-transformers的句子嵌入模型,可将文本映射到384维向量空间,适用于语义搜索和文本相似度计算
文本嵌入
Transformers

P
tonychenxyz
20
1
Sts Distilcamembert Base
MIT
这是一个基于DistilCamemBERT的法语句子嵌入模型,能够将句子或段落编码为768维向量,用于句子相似度计算等任务。
文本嵌入
Transformers

法语
S
h4c5
48
1
Simple Stories 4M
MIT
Simple Stories是一个基于TinyStories数据集训练的小型文本生成模型系列,专注于生成儿童故事。
文本生成
Transformers

英语
S
broskicodes
104
16
Octo Small
MIT
Octo小型版是一个基于扩散策略训练的机器人控制模型,能够预测未来4步的7维动作,适用于多源机器人数据集。
多模态融合
Transformers

O
rail-berkeley
335
13
Ced Base
Apache-2.0
CED是基于ViT-Transformer的简易音频标记模型,在Audioset上实现了最先进的性能表现。
音频分类
Transformers

C
mispeech
1,318
7
T5 Translate Vietnamese Nom
MIT
基于Transformer架构的轻量级预训练模型,专为越南喃字与拉丁文字双向翻译设计
机器翻译
Transformers

其他
T
minhtoan
17
3
Mobilevitv2 1.0 Voc Deeplabv3
其他
基于MobileViTv2架构的语义分割模型,在PASCAL VOC数据集上预训练,支持512x512分辨率图像处理
图像分割
Transformers

M
shehan97
1,075
0
Segformer B0 Flair One
Apache-2.0
SegFormer是一种基于Transformer的高效语义分割模型,b0版本是其轻量级实现。
图像分割
Transformers

S
alanoix
14
1
Internal.wav2vec2 Base Superb Ks Int8 Structured79
Apache-2.0
该模型是基于wav2vec2-base-ft-keyword-spotting在superb数据集上微调的版本,用于音频分类任务,经过量化和结构化剪枝优化。
音频分类
Transformers

I
yujiepan
16
0
Vit Small Patch16 224.dino
Apache-2.0
基于视觉Transformer(ViT)的图像特征模型,采用自监督DINO方法训练,适用于图像分类和特征提取任务。
图像分类
Transformers

V
timm
70.62k
4
T5 Small Vietnamese News
MIT
基于Transformer的轻量级预训练编码器-解码器模型,专为越南语新闻摘要设计
文本生成
Transformers

其他
T
minhtoan
104
4
T5 Small Wikilingua Vietnamese
MIT
基于Transformer编码器-解码器架构的越南语最先进轻量级预训练模型,专注于文本摘要任务。
文本生成
Transformers

其他
T
minhtoan
43
3
Nat Mini In1k 224
MIT
NAT-Mini 是基于邻域注意力机制的轻量级视觉Transformer模型,专为ImageNet图像分类任务设计
图像分类
Transformers

其他
N
shi-labs
109
0
T5 Small
Apache-2.0
T5-small是基于编码器-解码器架构的预训练模型,通过统一文本到文本格式处理多种任务,支持多语言处理。
大型语言模型
Transformers

支持多种语言
T
optimum
11.43k
9
Levit 128S
Apache-2.0
LeViT-128S是基于ImageNet-1k数据集预训练的视觉Transformer模型,结合了卷积网络的优势以实现更快推理。
图像分类
Transformers

L
facebook
3,198
4
Levit 384
Apache-2.0
LeViT-384是基于ImageNet-1k数据集预训练的视觉Transformer模型,结合了卷积网络的优势以实现更快的推理速度。
图像分类
Transformers

L
facebook
37
0
HPD MiniLM F128
Apache-2.0
通过同态投影蒸馏压缩语义检索的句子表示模型,仅含2300万参数,模型大小87MB
文本嵌入
Transformers

H
Xuandong
13
0
Fnet Base Finetuned Cola
Apache-2.0
基于google/fnet-base在GLUE COLA数据集上微调的文本分类模型,用于评估FNet与BERT架构的性能对比
文本分类
Transformers

英语
F
gchhablani
15
0
Xtremedistil L12 H384 Uncased
MIT
XtremeDistilTransformers是一种经过蒸馏的任务无关Transformer模型,通过任务迁移学习小型通用模型,可应用于任意任务和语言。
大型语言模型
Transformers

英语
X
microsoft
471
15
Deit Small Patch16 224
Apache-2.0
DeiT是一种更高效训练的Vision Transformer模型,在ImageNet-1k数据集上以224x224分辨率预训练和微调,适用于图像分类任务。
图像分类
Transformers

D
facebook
24.53k
8
Xtremedistil L6 H384 Uncased
MIT
XtremeDistilTransformers是一种经过知识蒸馏的轻量级Transformer模型,具有任务无关性,可应用于多种自然语言处理任务。
大型语言模型
英语
X
microsoft
1,854
23
Deit Tiny Patch16 224
Apache-2.0
DeiT是一种高效训练的视觉Transformer模型,在ImageNet-1k数据集上预训练和微调,适用于图像分类任务。
图像分类
Transformers

D
facebook
29.04k
9
Minilm L12 H384 Uncased
MIT
MiniLM是一种小型高效的预训练语言模型,通过深度自注意力蒸馏技术压缩而成,适用于语言理解与生成任务。
大型语言模型
M
microsoft
10.19k
89
Multilingual MiniLM L12 H384
MIT
MiniLM是一种小型高效的预训练语言模型,通过深度自注意力蒸馏技术压缩Transformer模型,支持多语言理解与生成任务。
大型语言模型
支持多种语言
M
microsoft
28.51k
83
Distil Eng Quora Sentence
这是一个基于sentence-transformers的句子嵌入模型,能够将句子映射到768维向量空间,适用于语义相似度计算和文本聚类等任务。
文本嵌入
Transformers

D
mboth
39
1
Xtremedistil L6 H256 Uncased
MIT
XtremeDistilTransformers是一个经过蒸馏的任务无关型Transformer模型,利用任务迁移学习技术训练小型通用模型,适用于多种任务和语言。
大型语言模型
Transformers

英语
X
microsoft
3,816
33
Paraphrase Albert Small V2
Apache-2.0
这是一个基于ALBERT-small架构的句子转换器模型,能够将句子和段落映射到768维的向量空间,适用于句子相似度计算和语义搜索等任务。
文本嵌入
Transformers

P
DataikuNLP
17
2
Paraphrase Multilingual MiniLM L12 V2
Apache-2.0
这是一个多语言句子嵌入模型,可将文本映射至384维向量空间,适用于语义搜索和聚类任务。
文本嵌入
Transformers

P
DataikuNLP
518
0
Distilbert Base En Ur Cased
Apache-2.0
这是distilbert-base-multilingual-cased的精简版本,专门支持英语和乌尔都语,保持原始模型的表征能力。
大型语言模型
Transformers

其他
D
Geotrend
32
1
Distilbert Base En Es It Cased
Apache-2.0
这是distilbert-base-multilingual-cased的精简版本,支持英语、西班牙语和意大利语处理,保持原始模型的准确度。
大型语言模型
Transformers

其他
D
Geotrend
16
0
Distilroberta Base
Apache-2.0
DistilRoBERTa是RoBERTa-base模型的蒸馏版本,参数更少但速度更快,适用于英语文本处理任务。
大型语言模型
英语
D
distilbert
1.2M
153
Distilbert Base Cased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,体积更小、速度更快,保留了97%的BERT性能。
大型语言模型
Transformers

英语
D
distilbert
233.75k
44
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文