Qwen3 128k 30B A3B NEO MAX Imatrix Gguf
Apache-2.0
基于Qwen3-30B-A3B混合专家模型的GGUF量化版本,上下文扩展至128k,采用NEO Imatrix量化技术优化,支持多语言和多任务处理。
大型语言模型
支持多种语言
Q
DavidAU
17.20k
10
Qwen3 30B A6B 16 Extreme 128k Context
基于千问3-30B-A3B的混合专家模型微调版本,激活专家数提升至16,上下文窗口扩展至128k,适合复杂推理场景
大型语言模型
Transformers

Q
DavidAU
72
7
Qwen3 32B 128k NEO Imatrix Max GGUF
Apache-2.0
这是Qwen3-32B模型的NEO Imatrix量化版本,采用BF16格式最大化输出张量以提升推理/生成能力,支持128k上下文长度。
大型语言模型
Q
DavidAU
1,437
2
Qwen3 32B 128k HORROR Imatrix Max GGUF
Apache-2.0
基于Qwen3-32B优化的恐怖主题文本生成模型,采用Imatrix量化技术增强推理能力,支持128k超长上下文
大型语言模型
Q
DavidAU
1,963
2
Llama3.1 MOE 4X8B Gated IQ Multi Tier Deep Reasoning 32B GGUF
Apache-2.0
一个基于Llama 3.1架构的混合专家(MoE)模型,具有门控IQ和多层深度推理能力,支持128k上下文长度和多种语言。
大型语言模型
支持多种语言
L
DavidAU
652
3
Mistral Small 3.1 24B Instruct 2503 MAX NEO Imatrix GGUF
Apache-2.0
Mistralai推出的24B参数指令微调模型,支持128k上下文长度和多语言处理,采用Neo Imatrix技术和MAX量化方案提升性能
大型语言模型
支持多种语言
M
DavidAU
38.29k
31
Gemma 3 12b It MAX HORROR Imatrix GGUF
Apache-2.0
基于谷歌Gemma-3模型的恐怖风格指令微调版本,采用Neo Imatrix技术和极致量化方案,支持128k上下文长度
大型语言模型
G
DavidAU
5,072
13
Llama 3.3 70b Instruct Awq
Llama 3.3是Meta开发的多语言大语言模型,拥有700亿参数,针对多语言对话用例优化,在多项基准测试中表现优异。
大型语言模型
Transformers

支持多种语言
L
casperhansen
47.12k
32
Llama 3.2 3B Instruct NEO SI FI GGUF
Apache-2.0
基于Llama-3.2架构的3B参数指令微调模型,融合NEO IMATRIX科幻数据集,支持128k长上下文生成
大型语言模型
支持多种语言
L
DavidAU
725
8
Llama 3.1 405B FP8
Meta羊驼3.1是多语言大语言模型集合,包含80亿、700亿和4050亿参数的预训练及指令调优生成模型,支持8种语言,在行业基准测试中表现优异。
大型语言模型
Transformers

支持多种语言
L
meta-llama
540
115
Llama 3.1 405B Instruct FP8
Meta Llama 3.1是多语言大语言模型系列,包含8B、70B和405B规模的预训练及指令调优生成模型。
大型语言模型
Transformers

支持多种语言
L
meta-llama
7,406
188
Llama 3.1 70B Instruct
Meta Llama 3.1 是一组包含80亿、700亿和4050亿参数的预训练及指令调优生成模型,针对多语言对话场景优化,支持8种语言和代码生成。
大型语言模型
Transformers

支持多种语言
L
meta-llama
1.2M
806
Llama 3.1 405B
LLaMA 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B三种规模,支持8种语言,在行业基准测试中表现优异。
大型语言模型
Transformers

支持多种语言
L
meta-llama
19.20k
927
Llama 3.1 70B
Meta羊驼3.1是支持8种语言的大语言模型系列,包含8B/70B/405B三种规模,在行业基准测试中超越多数开源和闭源聊天模型
大型语言模型
Transformers

支持多种语言
L
meta-llama
97.35k
358
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文