Josiefied Qwen3 4B Abliterated V1 6bit
这是一个基于Qwen3-4B模型转换至MLX格式的6位量化版本,适用于文本生成任务。
大型语言模型
J
mlx-community
15
1
Josiefied Qwen3 1.7B Abliterated V1 4bit
基于Qwen3-1.7B的4位量化版本,适用于MLX框架的轻量级大语言模型
大型语言模型
J
mlx-community
135
2
Smartshot Zeroshot Finetuned V0.2.0
基于MoritzLaurer/deberta-v3-base-zeroshot-v2.0-c微调的零样本分类模型,采用NLI框架的SmartShot方法训练
文本分类
Safetensors
英语
S
gincioks
197
0
Hidream I1 Fast Nf4
MIT
HiDream-I1是拥有170亿参数的开源图像生成基础模型,4比特量化版本可在16GB显存下运行,实现快速高质量的图像生成。
图像生成
H
azaneko
19.22k
7
Light R1 14B DS GGUF
Apache-2.0
Light-R1-14B-DS 是一个14B参数规模的量化大语言模型,支持文本生成任务,适用于资源受限环境下的高效推理。
大型语言模型
L
qihoo360
2,784
9
Hunyuan3d 2mini
其他
腾讯混元3D 2mini是一个轻量高效的图像转3D模型,参数规模为6亿,支持中英文输入。
3D视觉
支持多种语言
H
tencent
23.22k
69
Hunyuan
其他
混元视频是一个文本生成视频的模型,由腾讯开发。
文本生成视频
H
FastVideo
106
1
Qwen2 Vl Tiny Random
这是一个基于Qwen2-VL-7B-Instruct配置随机初始化的小型调试模型,用于视觉语言任务
图像生成文本
Transformers

Q
yujiepan
27
1
FLUX.1 Dev Qint8
其他
FLUX.1-dev是一个文本生成图像的扩散模型,已通过Optimum Quanto量化为INT8格式,适用于非商业用途。
文本生成图像
英语
F
Disty0
2,617
12
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
WizardLM-2-7B-abliterated的Llamacpp imatrix量化版本,提供多种量化选项,适用于不同硬件配置。
大型语言模型
W
bartowski
2,561
13
Lawyer Llama 13b V2
Lawyer LLaMA 是一个基于 LLaMA 架构的法律领域大语言模型,专注于中文法律任务。
大型语言模型
Transformers

中文
L
pkupie
200
12
Distilbert Base Finetuned Chinanews Chinese
Apache-2.0
基于DistilBERT架构,使用TextAttack框架微调的分类模型,在评估集上达到90.04%的准确率。
文本分类
Transformers

中文
D
WangA
549
2
Siglip Base Patch16 224
SigLIP是一种基于视觉-语言预训练的模型,适用于零样本图像分类任务。
文本生成图像
Transformers

S
Xenova
182
1
Llama 160M Chat V1
Apache-2.0
这是一个160M参数的Llama聊天模型,基于JackFram/llama-160m微调而来,专注于文本生成任务。
大型语言模型
Transformers

英语
L
Felladrin
586
19
Storytime 13B GPTQ
Storytime 13B 是一个基于 LLaMA 架构的大语言模型,专注于中文文本生成任务,尤其擅长故事创作。
大型语言模型
Transformers

英语
S
TheBloke
134
37
Blip Image Captioning
这是一个基于 BLIP 架构的图像描述生成模型,能够为输入的图片生成简洁的文字描述。
图像生成文本
Transformers

B
nnpy
17
6
Chinese Spam Detect
这是一个使用AutoTrain训练的二元分类模型,专门用于区分垃圾邮件和非垃圾邮件。
文本分类
Transformers

中文
C
paulkm
13
4
Totally Harmless Model
这是一个普通的旧模型,具体功能和用途未明确说明。
大型语言模型
Transformers

英语
T
ykilcher
110
15
Meme
一个用于对表情包描述文本进行分类的模型,适用于社交媒体和即时通讯应用。
文本分类
Transformers

M
AmrSheta
29
1
Electra Small Finetuned Squadv2
Apache-2.0
基于Electra-small-discriminator模型在SQuAD v2.0数据集上微调的问答模型,适用于区分可回答与不可回答问题的场景
问答系统
Transformers

英语
E
mrm8488
51
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文