Multilabel GeoSceneNet
Apache-2.0
基于SigLIP架构微调的多标签图像分类模型,可识别7种地理场景元素
图像分类
Transformers

支持多种语言
M
prithivMLmods
26
3
Depthpro ONNX
DepthPro 是一个用于深度估计的视觉模型,能够从单张图像预测场景的深度信息。
3D视觉
Transformers

D
onnx-community
146
10
Depth Anything V2 Base
Depth-Anything-V2-Base 是一个基于 ONNX 格式的深度估计模型,适配 Transformers.js,用于在 Web 端进行图像深度估计。
3D视觉
Transformers

D
onnx-community
56
0
Nebula
MIT
该模型是一个图像转文本模型,专注于生成图像的字幕描述。
图像生成
Transformers

N
SRDdev
17
0
Segformer B0 Person Segmentation
Openrail
基于 Segformer 架构的语义分割模型,用于为图像中的每个像素分配语义类别标签。
图像分割
Transformers

英语
S
s3nh
3,187
2
Vit Rugpt2 Image Captioning
这是一个基于COCO2014数据集翻译版(英俄)训练的图片描述生成模型,能够为输入的图像生成俄语描述。
图像生成文本
Transformers

其他
V
tuman
111
13
Upernet Swin Large
MIT
UperNet是一种用于语义分割的框架,结合Swin Transformer骨干网络实现像素级场景理解
图像分割
Transformers

英语
U
openmmlab
3,251
0
Upernet Swin Base
MIT
UperNet是一种用于语义分割的框架,采用Swin Transformer作为骨干网络,能够高效地进行像素级语义标注。
图像分割
Transformers

英语
U
openmmlab
700
2
Upernet Swin Tiny
MIT
UperNet是一种语义分割框架,采用Swin Transformer作为骨干网络,能够实现像素级语义标签预测。
图像分割
Transformers

英语
U
openmmlab
4,682
3
Upernet Convnext Xlarge
MIT
UperNet是一种用于语义分割的框架,采用ConvNeXt作为骨干网络,能够预测每个像素的语义标签。
图像分割
Transformers

英语
U
openmmlab
659
2
Upernet Convnext Base
MIT
UperNet是一种用于语义分割的框架,采用ConvNeXt作为骨干网络,能够预测每个像素的语义标签。
图像分割
Transformers

英语
U
openmmlab
178
1
Upernet Convnext Tiny
MIT
UperNet是一种用于语义分割的框架,采用ConvNeXt作为骨干网络,能够为每个像素预测一个语义标签。
图像分割
Transformers

英语
U
openmmlab
3,866
3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文