Dolphin
MIT
海豚是一种创新的多模态文档图像解析模型,采用'先分析后解析'的范式处理复杂文档元素。
图像生成文本
Transformers

支持多种语言
D
ByteDance
1,620
219
Sam2 Hiera Small.fb R896
Apache-2.0
基于HieraDet图像编码器的SAM2模型,专注于图像特征提取任务。
图像分割
Transformers

S
timm
142
0
Linknet Tu Resnet18
MIT
Linknet是一个基于PyTorch实现的图像分割模型,适用于语义分割任务。
图像分割
Safetensors
L
smp-test-models
214
0
Allegro T2V 40x720P
Apache-2.0
Allegro是一款开源的高质量文本到视频生成模型,能够生成2至6秒、15 FPS的详细视频,支持多种分辨率。
文本生成视频
英语
A
rhymes-ai
21
2
Allegro T2V 40x360P
Apache-2.0
Allegro是一款开源的文本生成视频模型,支持生成高质量、多样化的动态场景视频。
文本生成视频
英语
A
rhymes-ai
21
1
Hiera Huge 224 Hf
Hiera是一种高效的分层视觉Transformer模型,在图像和视频任务中表现优异且运行速度快
图像分类
Transformers

英语
H
facebook
41
1
Hiera Large 224 Hf
Hiera是一种层次化视觉Transformer模型,兼具快速、强大且简洁的特性,在图像视频任务中超越现有技术且速度更快。
图像分类
Transformers

英语
H
facebook
532
1
Hiera Base Plus 224 Hf
Hiera是一种分层式视觉Transformer模型,兼具快速、强大且简洁的特性,在广泛图像视频任务中超越现有技术水平同时显著提升运行速度。
图像分类
Transformers

英语
H
facebook
15
0
Hiera Base 224 Hf
Hiera是一种层次化视觉Transformer模型,具有快速、强大且简洁的特点,在图像和视频任务中表现优异。
图像分类
Transformers

英语
H
facebook
163
0
Tiny Mistral
Mistral架构的随机初始化模型,适用于端到端测试。
大型语言模型
Transformers

T
openaccess-ai-collective
23.43k
14
Ruleanalbert
Apache-2.0
RuLeanALBERT 是一个针对俄语预训练的掩码语言模型,采用了内存高效的架构。
大型语言模型
Transformers

其他
R
yandex
80
35
Efficientnet 61 Planet Detection
Apache-2.0
EfficientNetV2 是一个高效的卷积神经网络架构,特别优化了训练速度和参数效率。
图像分类
Transformers

E
chlab
14
0
Levit 256
Apache-2.0
LeViT-256是基于Transformer架构的高效视觉模型,专为快速推理设计,在ImageNet-1k数据集上预训练。
图像分类
Transformers

L
facebook
37
0
Roberta Small Bulgarian
这是一个精简版的保加利亚语RoBERTa模型,仅包含6个隐藏层,但保持了相近的性能表现。
大型语言模型
其他
R
iarfmoose
21
0
Cspdarknet53 Mish
Apache-2.0
基于 ImageNette 数据集预训练的 CSP-Darknet-53 Mish 架构图像分类模型
图像分类
Transformers

C
frgfm
14
0
Rexnet1 5x
Apache-2.0
ReXNet-1.5x 是一个基于 ImageNette 数据集预训练的轻量级图像分类模型,采用 ReXNet 架构,通过改进残差块中的 Squeeze-Excitation 层来减少通道冗余。
图像分类
Transformers

R
frgfm
15
0
Bert Xsmall Dummy
这是一个小型BERT模型的虚拟示例,用于演示和测试目的
大型语言模型
B
julien-c
27.12k
0
Albert Large Arabic
ALBERT大模型的阿拉伯语预训练版本,基于约44亿词的阿拉伯语语料训练
大型语言模型
Transformers

阿拉伯语
A
asafaya
45
1
Roberta Base 100M 1
基于1B词元规模预训练的RoBERTa基础模型,验证困惑度为3.93,适用于英语文本处理任务。
大型语言模型
R
nyu-mll
63
0
Rexnet1 3x
Apache-2.0
ReXNet-1.3x是基于ReXNet架构的图像分类模型,在ImageNette数据集上进行了预训练。
图像分类
Transformers

R
frgfm
15
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文