Qwen3 8B GGUF
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供稠密模型和混合专家(MoE)模型的完整套件。
大型语言模型
英语
Q
prithivMLmods
1,222
1
Qwen3 4B GGUF
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供完整的稠密模型与混合专家(MoE)模型组合。
大型语言模型
英语
Q
prithivMLmods
829
1
Qwen3 235B A22B GPTQ Int4
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
Transformers

Q
Qwen
1,563
9
Qwen3 235B A22B
Apache-2.0
Qwen3 是 Qwen 系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
Transformers

Q
unsloth
421
2
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
英语
Q
unsloth
75.02k
48
Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Base是通义千问系列最新一代30.5B参数规模的混合专家(MoE)大语言模型,支持119种语言和32k上下文长度。
大型语言模型
Transformers

Q
Qwen
9,745
33
Arrowneo AME 4x3B V0.1 MoE
MIT
一个以成为AI虚拟主播灵魂为目标的混合专家模型,结合了代码生成、指令跟随和多轮对话能力
大型语言模型
支持多种语言
A
DataPilot
51
3
SAINEMO Remix
基于多个12B参数模型的混合模型,专注于俄语和英语的角色扮演与文本生成
大型语言模型
Transformers

S
Moraliane
201
36
L3 SnowStorm V1.15 4x8B B
实验性角色扮演导向的混合专家模型,目标是打造在角色扮演/情感角色扮演任务中表现不逊于或优于Mixtral 8x7B及其微调版本的模型。
大型语言模型
Transformers

英语
L
xxx777xxxASD
26
11
Snowflake Arctic Base
Apache-2.0
雪花北极是由雪花AI研究团队开发的密集混合专家(MoE)架构大语言模型,具有4800亿参数,专为高效文本和代码生成设计。
大型语言模型
Transformers

S
Snowflake
166
67
J.O.S.I.E.3 Beta12 7B Slerp
Apache-2.0
J.O.S.I.E.3-Beta12-7B-slerp 是一个通过合并 Weyaxi/Einstein-v6-7B 和 argilla/CapybaraHermes-2.5-Mistral-7B 模型而成的7B参数大语言模型,支持多语言交互
大型语言模型
Transformers

支持多种语言
J
Goekdeniz-Guelmez
17
2
Snowflake Arctic Instruct
Apache-2.0
Arctic是由雪花AI研究团队开发的密集混合专家(MoE)架构大语言模型,具有4800亿参数,以Apache-2.0许可证开源。
大型语言模型
Transformers

S
Snowflake
10.94k
354
Llama 3 Smaug 8B GGUF
基于abacusai/Llama-3-Smaug-8B的GGUF格式量化模型,支持2-8比特量化级别,适用于文本生成任务
大型语言模型
L
MaziyarPanahi
8,904
5
Copus 2x8B
Copus-2x8B 是一个基于 Llama-3-8B 架构的混合专家模型,结合了 dreamgen/opus-v1.2-llama-3-8b 和 NousResearch/Meta-Llama-3-8B-Instruct 两个微调版本。
大型语言模型
Transformers

C
lodrick-the-lafted
14
1
Zephyr Orpo 141b A35b V0.1 GGUF
Apache-2.0
基于Mixtral-8x22B-v0.1微调的1410亿参数混合专家模型(MoE),激活参数350亿,主要用于英语文本生成任务
大型语言模型
英语
Z
MaziyarPanahi
10.04k
29
Mixtral 8x22B V0.1 GGUF
Apache-2.0
Mixtral-8x22B-v0.1的量化版本,使用llama.cpp进行量化,支持多种语言和量化类型。
大型语言模型
支持多种语言
M
bartowski
597
12
Phalanx 512x460M MoE
Apache-2.0
LiteLlama-460M-1T 是一个轻量级的混合专家模型,包含512位专家,适用于高效推理和文本生成任务。
大型语言模型
Transformers

英语
P
Kquant03
28
2
Laser Dolphin Mixtral 2x7b Dpo
Apache-2.0
基于Dolphin-2.6-Mistral-7B-DPO-Laser的中等规模混合专家(MoE)实现,在评估性能上平均提升约1分
大型语言模型
Transformers

L
macadeliccc
133
57
Phixtral 2x2 8
MIT
phixtral-2x2_8 是首个基于两个 microsoft/phi-2 模型构建的混合专家模型(MoE),其表现优于每个单独的专家模型。
大型语言模型
Transformers

支持多种语言
P
mlabonne
178
148
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文