Minueza 2 96M
Apache-2.0
基于Llama架构的紧凑型语言模型,支持英语和葡萄牙语,参数规模9600万,支持4096个token的上下文长度。
大型语言模型
Transformers

支持多种语言
M
Felladrin
357
6
Deepseek R1 Distill Qwen 1.5B
MIT
基于DeepSeek-R1-Distill-Qwen-1.5B的多个变体,适配LiteRT框架和MediaPipe LLM推理API,可部署于Android平台。
大型语言模型
D
litert-community
138
4
Llama 3.2 3B Instruct SpinQuant INT4 EO8
Llama 3.2是Meta推出的1B和3B参数规模的多语言预训练和指令调优生成模型,针对多语言对话用例优化,支持8种官方语言。
大型语言模型
PyTorch
支持多种语言
L
meta-llama
30.02k
35
Coreml Sam2.1 Tiny
Apache-2.0
SAM 2.1 Tiny 是 Facebook AI Research (FAIR) 推出的轻量级图像与视频通用分割模型,支持基于提示的可控视觉分割。
图像分割
C
apple
68
6
Llama 3.2 3B Instruct AWQ
Llama 3.2是Meta推出的多语言大语言模型集合,包含1B和3B参数规模的预训练和指令调优版本,针对多语言对话用例优化,支持8种官方语言。
大型语言模型
Transformers

支持多种语言
L
AMead10
4,500
2
Llama Guard 3 1B
Llama Guard 3-1B是基于Llama-3.2-1B预训练模型微调的内容安全分类模型,用于对LLM输入和响应中的内容进行安全分类。
大型语言模型
Transformers

支持多种语言
L
meta-llama
73.88k
81
Coreml Depth Anything V2 Small
Apache-2.0
Depth Anything V2 是基于 DPT 架构的深度估计模型,采用 DINOv2 骨干网络,通过大规模合成和真实数据训练,实现精细且鲁棒的深度预测。
3D视觉
C
apple
67
58
Coreml YOLOv3
MIT
YOLOv3 是一种高效的目标检测模型,能够实时定位并分类图像中的80种不同物体。
目标检测
C
apple
53
15
Mobileclip B OpenCLIP
MobileCLIP-B是一种高效的图文模型,通过多模态强化训练实现快速推理,在零样本图像分类任务中表现优异。
文本生成图像
M
apple
715
3
Mobileclip S2 OpenCLIP
MobileCLIP-S2 是一种高效的图文模型,通过多模态强化训练实现快速零样本图像分类。
文本生成图像
M
apple
99.74k
6
Mobileclip S1 OpenCLIP
MobileCLIP-S1是一种高效的图文模型,通过多模态强化训练实现快速零样本图像分类。
图像生成文本
M
apple
7,723
10
Mobileclip S0 Timm
MobileCLIP-S0是一个高效的图文模型,通过多模态强化训练实现,在保持高性能的同时显著提升了速度和体积效率。
文本生成图像
M
apple
532
10
Imp V1.5 4B Phi3
Apache-2.0
Imp-v1.5-4B-Phi3是一个高性能轻量级多模态大模型,仅含40亿参数,基于Phi-3框架和SigLIP视觉编码器构建。
文本生成图像
Transformers

I
MILVLG
140
7
Coreml Depth Anything Small
Apache-2.0
Depth Anything 是一种基于 DPT 架构和 DINOv2 骨干网络的深度估计模型,在约 6200 万张图像上训练,在相对和绝对深度估计任务中取得最先进结果。
3D视觉
C
apple
51
36
Mobileclip S2
其他
MobileCLIP S2 是一个轻量级的视觉-语言模型,专注于图像特征提取和零样本图像分类任务。
文本生成图像
Transformers

M
Xenova
86
2
Mobileclip S0
其他
MobileCLIP S0 是苹果 ml-mobileclip 项目的 ONNX 适配版本,专为移动设备优化的零样本图像分类模型。
文本生成图像
Transformers

M
Xenova
295
1
Plant Disease Detection Project
其他
MobileNet V2是一种轻量级的卷积神经网络,专为移动设备设计,在延迟、模型大小和准确性之间取得平衡。
图像分类
Transformers

P
Diginsa
242.43k
4
Mobilevitv2 1.0 Voc Deeplabv3
其他
基于MobileViTv2架构和DeepLabV3头部的语义分割模型,在PASCAL VOC数据集上以512x512分辨率预训练
图像分割
Transformers

M
apple
29
1
Mobilenet V2 1.0 224 Plant Disease Identification
其他
基于MobileNetV2架构微调的植物病害识别模型,在植物村庄数据集上达到95.41%的准确率
图像分类
Transformers

M
linkanjarad
3,565
26
Efficientnet B7
Apache-2.0
EfficientNet是一种高效的卷积神经网络,通过统一缩放深度、宽度和分辨率实现高性能图像分类
图像分类
Transformers

E
google
6,522
17
Efficientnet B6
Apache-2.0
EfficientNet是一款移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在ImageNet-1k数据集上训练
图像分类
Transformers

E
google
167
0
Efficientnet B4
Apache-2.0
EfficientNet是一款移动端友好的纯卷积模型,通过复合系数统一调整深度、宽度和分辨率维度,在ImageNet-1k数据集上训练而成。
图像分类
Transformers

E
google
5,528
1
Efficientnet B3
Apache-2.0
EfficientNet是一款移动端友好的纯卷积神经网络,通过复合系数统一调整深度/宽度/分辨率维度,实现高效缩放
图像分类
Transformers

E
google
418
2
Efficientnet B2
Apache-2.0
EfficientNet是一种移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在图像分类任务中表现优异。
图像分类
Transformers

E
google
276.94k
2
Efficientnet B1
Apache-2.0
EfficientNet是一款移动端友好的纯卷积神经网络,通过复合系数统一调整深度/宽度/分辨率维度,实现高效缩放。
图像分类
Transformers

E
google
1,868
1
Efficientnet B0
Apache-2.0
EfficientNet是一款移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在ImageNet-1k数据集上训练。
图像分类
Transformers

E
google
17.12k
12
Efficientformer L3 300
Apache-2.0
EfficientFormer-L3是由Snap Research开发的轻量级视觉Transformer模型,专为移动设备优化,在保持高性能的同时实现低延迟。
图像分类
英语
E
snap-research
279
2
Mobilenet V1 0.75 192
其他
MobileNet V1是一种轻量级卷积神经网络,专为移动设备设计,在图像分类任务中平衡了延迟、模型大小和准确率。
图像分类
Transformers

M
google
31.54k
2
Mobilenet V1 1.0 224
其他
MobileNet V1是一种轻量级卷积神经网络,专为移动和嵌入式视觉应用设计,在ImageNet-1k数据集上预训练。
图像分类
Transformers

M
google
5,344
1
Deeplabv3 Mobilenet V2 1.0 513
其他
基于MobileNetV2架构结合DeepLabV3+分割头的轻量级语义分割模型,在PASCAL VOC数据集上预训练
图像分割
Transformers

D
google
3,129
8
Mobilenet V2 0.35 96
其他
MobileNet V2是一种小型、低延迟、低功耗的视觉模型,专为移动设备优化设计
图像分类
Transformers

M
google
540
1
Mobilenet V2 0.75 160
其他
MobileNet V2是一个轻量级的计算机视觉模型,专为移动设备优化,在图像分类任务中表现优异。
图像分类
Transformers

M
google
480
2
Mobilenet V2 1.0 224
其他
MobileNet V2 是一个轻量级的视觉模型,专为移动设备优化,在图像分类任务上表现优异。
图像分类
Transformers

M
google
69.47k
29
Mobilenet V2 1.4 224
其他
基于ImageNet-1k数据集预训练的轻量级图像分类模型,专为移动设备优化设计
图像分类
Transformers

M
google
737
1
Mobilenet V2 1.4 224
其他
MobileNet V2是一种轻量级的卷积神经网络,专为移动设备设计,在图像分类任务中表现出色。
图像分类
Transformers

M
Matthijs
26
0
Mobilenet V2 1.0 224
其他
MobileNet V2是一种轻量级卷积神经网络,专为移动设备设计,在图像分类任务中表现优异。
图像分类
Transformers

M
Matthijs
29
0
Mobilenet V1 1.0 224
其他
MobileNet V1是一种轻量级卷积神经网络,专为移动和嵌入式视觉应用设计,在ImageNet-1k数据集上预训练。
图像分类
Transformers

M
Matthijs
41
0
Deeplabv3 Mobilevit Xx Small
其他
基于PASCAL VOC数据集预训练的轻量级语义分割模型,结合MobileViT和DeepLabV3架构
图像分割
Transformers

D
apple
1,571
10
Deeplabv3 Mobilevit X Small
其他
轻量级视觉Transformer模型,结合MobileNetV2与Transformer模块,适用于移动端语义分割任务。
图像分割
Transformers

D
apple
268
3
Deeplabv3 Mobilevit Small
轻量级视觉Transformer模型,结合MobileNetV2与Transformer模块,适用于移动端语义分割任务
图像分割
Transformers

D
apple
817
16
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文