Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3B的量化版本,采用先进的非线性SotA量化技术,在给定内存占用下提供同类最佳的质量。
大型语言模型
Q
ubergarm
780
10
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8B的量化版本,使用llama.cpp的imatrix选项进行量化,适用于文本生成任务。
大型语言模型
Q
bartowski
23.88k
18
Glm 4 9b Chat Abliterated GGUF
其他
基于GLM-4架构的9B参数聊天模型,支持中英文对话,经过量化处理适用于不同硬件环境
大型语言模型
支持多种语言
G
bartowski
2,676
11
Falcon E 1B Base
其他
Falcon-E-1B-Base 是由 TII 开发的一个高效 1.58 位语言模型,采用纯 Transformer 架构,专为边缘设备优化设计。
大型语言模型
Transformers

F
tiiuae
53
4
ARPG
MIT
ARPG是一种创新的自回归图像生成框架,能够通过类GPT因果架构实现BERT式掩码建模。
图像生成
A
hp-l33
68
2
Svdq Int4 Flux.1 Fill Dev
其他
FLUX.1-Fill-dev的INT4量化版本,能够根据文本描述填充现有图像中的区域,提供约4倍内存节省和2-3倍速度提升。
图像生成
英语
S
mit-han-lab
62.61k
14
Impish Mind 8B GGUF
Apache-2.0
基于SicariusSicariiStuff/Impish_Mind_8B模型的量化版本,使用llama.cpp工具进行多种量化处理,适用于文本生成任务。
大型语言模型
英语
I
bartowski
532
9
Esmplusplus Small
ESM++是对ESMC的忠实实现,支持批处理且兼容标准Huggingface接口,无需依赖ESM Python包。
蛋白质模型
Transformers

E
Synthyra
6,460
14
FLUX.1 Lite GGUF
其他
Flux.1 Lite是从FLUX.1-dev模型蒸馏出的80亿参数Transformer模型,专为文本生成图像任务优化,在保持精度的同时减少内存占用并提升速度。
文本生成图像
F
gpustack
5,452
3
Blip Image Captioning Base Bf16
MIT
该模型是Salesforce/blip-image-captioning-base的量化版本,通过降低浮点精度至bfloat16,内存占用减少50%,适用于图像到文本生成任务。
图像生成文本
Transformers

B
gospacedev
20
1
Recurrentgemma 2b It
RecurrentGemma是基于Google新型循环架构构建的开源语言模型,提供更高效的长序列处理能力
大型语言模型
Transformers

R
google
5,418
110
Whisper Large V3 French Distil Dec16
MIT
Whisper-Large-V3-法语蒸馏版是通过将解码器层数从32层缩减至16层,并基于大规模数据集进行蒸馏训练而得到的法语语音识别模型。
语音识别
Transformers

法语
W
bofenghuang
2,461
10
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文