Devstral Small 2505 GGUF
Apache-2.0
Devstral-Small-2505的量化版本,提供多种精度选择以适应不同硬件需求
大型语言模型
支持多种语言
D
Antigma
170
1
Sam Reason S2.1 GGUF
MIT
Sam-reason-S2.1的静态量化版本,提供多种量化选项以适应不同硬件需求
大型语言模型
英语
S
mradermacher
299
1
INTELLECT 2 GGUF
INTELLECT-2-GGUF 是 PrimeIntellect/INTELLECT-2 的 GGUF 格式量化版本,适用于文本生成任务。
大型语言模型
I
MaziyarPanahi
88
1
Josiefied Qwen3 4B Abliterated V1 6bit
这是一个基于Qwen3-4B模型转换至MLX格式的6位量化版本,适用于文本生成任务。
大型语言模型
J
mlx-community
15
1
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ 是基于 Qwen/Qwen3-8B 转换至 MLX 格式的 4 位量化版本,适用于在 Apple 设备上高效运行。
大型语言模型
Q
mlx-community
306
1
Mlabonne Qwen3 4B Abliterated GGUF
Qwen3-4B-abliterated的量化版本,使用llama.cpp进行量化,支持多种量化类型,适用于文本生成任务。
大型语言模型
M
bartowski
3,623
3
Josiefied Qwen3 1.7B Abliterated V1 4bit
基于Qwen3-1.7B的4位量化版本,适用于MLX框架的轻量级大语言模型
大型语言模型
J
mlx-community
135
2
Qwen3 8B 4bit
Apache-2.0
这是Qwen/Qwen3-8B模型的4位量化版本,已转换为MLX框架格式,适用于苹果芯片设备的高效推理。
大型语言模型
Q
mlx-community
2,131
2
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit 是从 Qwen/Qwen3-4B 转换至 MLX 格式的 4 位量化版本,适用于在 Apple 芯片上高效运行。
大型语言模型
Q
mlx-community
7,400
6
Jungzoona T3Q Qwen2.5 14b V1.0 E3 GGUF
Apache-2.0
本仓库包含JungZoona/T3Q-qwen2.5-14b-v1.0-e3的GGUF格式模型文件,由TensorBlock提供的机器进行量化,兼容llama.cpp。
大型语言模型
Transformers

支持多种语言
J
tensorblock
557
1
Deepcogito Cogito V1 Preview Llama 3B GGUF
基于Llama架构的3B参数语言模型,提供多种量化版本以适应不同硬件需求
大型语言模型
D
tensorblock
162
1
Llama381binstruct Summarize Short Merged
其他
基于Meta-Llama-3.1-8B-Instruct的合并模型,针对法律领域摘要任务进行了微调,能将法律术语转换为简短易懂的摘要。
大型语言模型
L
FlamingNeuron
42
0
GLM Z1 9B 0414
MIT
GLM-4-Z1-9B-0414是GLM家族的新一代开源模型,具备优秀的数学推理与通用能力,适合资源受限场景下的轻量部署。
大型语言模型
Transformers

支持多种语言
G
THUDM
3,456
55
Xlm Roberta Base Language Detection Tfjs
MIT
这是一个基于XLM-RoBERTa的多语言检测模型,支持20种语言的识别。
文本分类
支持多种语言
X
dnouv
14
1
Lightblue Reranker 0.5 Cont Filt 7max Gguf
这是一个文本排序模型,用于对文本进行相关性排序。
文本嵌入
L
RichardErkhov
2,106
0
Traceback 12b
Apache-2.0
TraceBack 12b 是基于 Mistral-Nemo-Instruct 架构的 4bit 量化版本,专注于指令遵循和思维链推理任务。
大型语言模型
Transformers

T
secemp9
1,470
29
Chroma GGUF
Apache-2.0
Chroma-GGUF 是一个基于 lodestones/Chroma 的量化模型集合,提供多种不同精度的量化版本,适用于不同的硬件和性能需求。
图像生成
C
silveroxides
8,529
20
Ozone Ai 0x Lite GGUF
Apache-2.0
基于ozone-ai/0x-lite模型的量化版本,支持中英文文本生成任务,采用llama.cpp进行imatrix量化,提供多种量化选项以适应不同硬件需求。
大型语言模型
支持多种语言
O
bartowski
220
2
Janus Pro 1B 4bit
MIT
基于deepseek-ai/Janus-Pro-1B的4位量化版本,适用于Apple芯片的MLX框架
大型语言模型
J
wnma3mz
40
3
Meno Tiny 0.1
Apache-2.0
基于Qwen2.5-1.5B-Instruct微调的俄语指令优化模型,15亿参数,支持俄英双语,擅长RAG流程中的文本问答
大型语言模型
Transformers

支持多种语言
M
bond005
764
10
FLUX.1 Schnell GGUF
Apache-2.0
FLUX.1-schnell 是一个高效的文本生成图像模型,基于扩散模型架构,支持英文文本输入生成高质量图像。
文本生成图像
英语
F
second-state
551
11
Bge M3 GGUF
MIT
该模型是通过ggml.ai的GGUF-my-repo空间,使用llama.cpp从BAAI/bge-m3转换为GGUF格式的句子相似度模型。
文本嵌入
B
bbvch-ai
266
1
Moralbert Predict Subversion In Lyrics
MIT
这是一个基于PyTorch的文本分类模型,适用于多种文本分类任务。
文本分类
Transformers

M
vjosap
17
1
Mistral Nemo Instruct 2407 GGUF
Mistral-Nemo-Instruct-2407-GGUF 是 mistralai/Mistral-Nemo-Instruct-2407 的 GGUF 格式量化版本,支持多种量化位数(2-bit 至 8-bit),适用于文本生成任务。
大型语言模型
M
MaziyarPanahi
441.17k
44
Omost Dolphin 2.9 Llama3 8b 4bits
Omost发布的基于Llama3-8B的指令微调模型,采用Dolphin-2.9数据集预训练,并以4位NF4格式量化。
大型语言模型
Transformers

O
lllyasviel
106
6
Omost Llama 3 8b 4bits
Omost 发布的 llama-3 模型,具有 8k 上下文长度,采用 nf4 量化。
大型语言模型
Transformers

O
lllyasviel
1,163
21
Llama3 Toxic 8B Float16
Apache-2.0
基于unsloth/llama-3-8b-bnb-4bit微调的文本生成模型,使用Unsloth和TRL库训练,速度提升2倍
大型语言模型
Transformers

英语
L
theminji
19
4
GIGABATEMAN 7B GGUF
GIGABATEMAN-7B 是一个基于 Mistral 架构的 7B 参数大型语言模型,专注于文本生成任务。
大型语言模型
英语
G
mradermacher
115
3
Drug Ollama V3 2
该模型是基于open_llama_3b使用H2O LLM Studio训练的大语言模型,专注于药物相关领域的文本生成任务。
大型语言模型
Transformers

英语
D
Ketak-ZoomRx
99
3
IF PromptMKR Phi
基于microsoft/phi-1_5模型使用IFprompMKR数据集进行qlora微调的版本,主要用于文本生成任务。
大型语言模型
Transformers

I
impactframes
23
2
Tiny Doc Qa Vision Encoder Decoder
MIT
一个基于MIT许可证的文档问答模型,主要用于测试目的。
问答系统
Transformers

T
fxmarty
41.08k
16
Distilbert Base Uncased Finetuned Rte
一个多功能的大语言模型,能够处理各种自然语言处理任务
大型语言模型
Transformers

D
danlou
16
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文