Qwen1.5 Moe Tiny Random
这是一个基于Qwen1.5-MoE架构的随机初始化小型模型,采用float16精度,适用于文本生成任务。
大型语言模型
Transformers

Q
yujiepan
30
1
H2o Danube 1.8b Base
Apache-2.0
H2O.ai训练的18亿参数基础语言模型,基于改进的Llama 2架构,支持16K上下文长度
大型语言模型
Transformers

英语
H
h2oai
281
43
Mistral 7B Instruct V0.1
Apache-2.0
Mistral-7B-Instruct-v0.1是基于Mistral-7B-v0.1生成式文本模型,通过多种公开对话数据集进行指令微调的版本。
大型语言模型
Transformers

M
mistralai
468.63k
1,659
Nat Base In1k 224
MIT
NAT-Base是基于ImageNet-1K训练的视觉Transformer模型,采用邻域注意力机制进行图像分类。
图像分类
Transformers

其他
N
shi-labs
6
0
Nat Small In1k 224
MIT
NAT-Small是基于邻域注意力的分层视觉变换器,专为图像分类任务设计
图像分类
Transformers

其他
N
shi-labs
6
0
Nat Mini In1k 224
MIT
NAT-Mini 是基于邻域注意力机制的轻量级视觉Transformer模型,专为ImageNet图像分类任务设计
图像分类
Transformers

其他
N
shi-labs
109
0
Dinat Mini In1k 224
MIT
DiNAT-Mini是基于邻域注意力机制的分层视觉Transformer模型,专为图像分类任务设计。
图像分类
Transformers

D
shi-labs
462
1
Longformer Base 4096 Spanish
MIT
基于RoBERTa检查点开发的西班牙语长文档处理模型,支持4096个token的序列长度
大型语言模型
Transformers

西班牙语
L
mrm8488
22
16
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文