中文支持
Josiefied Qwen3 4B Abliterated V1 6bit
这是一个基于Qwen3-4B模型转换至MLX格式的6位量化版本,适用于文本生成任务。
大型语言模型
J
mlx-community
15
1
Josiefied Qwen3 1.7B Abliterated V1 4bit
基于Qwen3-1.7B的4位量化版本,适用于MLX框架的轻量级大语言模型
大型语言模型
J
mlx-community
135
2
Smartshot Zeroshot Finetuned V0.2.0
基于MoritzLaurer/deberta-v3-base-zeroshot-v2.0-c微调的零样本分类模型,采用NLI框架的SmartShot方法训练
文本分类
Safetensors
英语
S
gincioks
197
0
Hidream I1 Fast Nf4
MIT
HiDream-I1是拥有170亿参数的开源图像生成基础模型,4比特量化版本可在16GB显存下运行,实现快速高质量的图像生成。
图像生成
H
azaneko
19.22k
7
Light R1 14B DS GGUF
Apache-2.0
Light-R1-14B-DS 是一个14B参数规模的量化大语言模型,支持文本生成任务,适用于资源受限环境下的高效推理。
大型语言模型
L
qihoo360
2,784
9
Hunyuan3d 2mini
其他
腾讯混元3D 2mini是一个轻量高效的图像转3D模型,参数规模为6亿,支持中英文输入。
3D视觉
支持多种语言
H
tencent
23.22k
69
Hunyuan
其他
混元视频是一个文本生成视频的模型,由腾讯开发。
文本生成视频
H
FastVideo
106
1
Qwen2 Vl Tiny Random
这是一个基于Qwen2-VL-7B-Instruct配置随机初始化的小型调试模型,用于视觉语言任务
图像生成文本
Transformers
Q
yujiepan
27
1
FLUX.1 Dev Qint8
其他
FLUX.1-dev是一个文本生成图像的扩散模型,已通过Optimum Quanto量化为INT8格式,适用于非商业用途。
文本生成图像
英语
F
Disty0
2,617
12
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliterated的Llamacpp imatrix量化版本,提供多种量化选项,适用于不同硬件配置。
大型语言模型
W
bartowski
2,561
13
Lawyer Llama 13b V2
Lawyer LLaMA 是一个基于 LLaMA 架构的法律领域大语言模型,专注于中文法律任务。
大型语言模型
Transformers
中文
L
pkupie
200
12
Distilbert Base Finetuned Chinanews Chinese
Apache-2.0
基于DistilBERT架构,使用TextAttack框架微调的分类模型,在评估集上达到90.04%的准确率。
文本分类
Transformers
中文
D
WangA
549
2
Siglip Base Patch16 224
SigLIP是一种基于视觉-语言预训练的模型,适用于零样本图像分类任务。
文本生成图像
Transformers
S
Xenova
182
1
Llama 160M Chat V1
Apache-2.0
这是一个160M参数的Llama聊天模型,基于JackFram/llama-160m微调而来,专注于文本生成任务。
大型语言模型
Transformers
英语
L
Felladrin
586
19
Storytime 13B GPTQ
Storytime 13B 是一个基于 LLaMA 架构的大语言模型,专注于中文文本生成任务,尤其擅长故事创作。
大型语言模型
Transformers
英语
S
TheBloke
134
37
Blip Image Captioning
这是一个基于 BLIP 架构的图像描述生成模型,能够为输入的图片生成简洁的文字描述。
图像生成文本
Transformers
B
nnpy
17
6
Chinese Spam Detect
这是一个使用AutoTrain训练的二元分类模型,专门用于区分垃圾邮件和非垃圾邮件。
文本分类
Transformers
中文
C
paulkm
13
4
Totally Harmless Model
这是一个普通的旧模型,具体功能和用途未明确说明。
大型语言模型
Transformers
英语
T
ykilcher
110
15
Meme
一个用于对表情包描述文本进行分类的模型,适用于社交媒体和即时通讯应用。
文本分类
Transformers
M
AmrSheta
29
1
Electra Small Finetuned Squadv2
Apache-2.0
基于Electra-small-discriminator模型在SQuAD v2.0数据集上微调的问答模型,适用于区分可回答与不可回答问题的场景
问答系统
Transformers
英语
E
mrm8488
51
1