开源大模型
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3-30B-A3B是基于Qwen3-30B-A3B-Base的大语言模型,支持文本生成任务,采用超低位量化技术优化内存效率。
大型语言模型
Q
Mungert
2,135
1
Bielik 4.5B V3.0 Instruct GGUF
Apache-2.0
Bielik-4.5B-v3.0-Instruct-GGUF 是 SpeakLeash 发布的波兰语大语言模型,基于 Bielik-4.5B-v3.0-Instruct 转换的 GGUF 量化格式,适用于本地推理。
大型语言模型
其他
B
speakleash
693
4
Qwen3 14B GGUF
Apache-2.0
Qwen3-14B是基于Qwen/Qwen3-14B-Base生成的GGUF格式模型,支持文本生成任务,采用IQ-DynamicGate超低比特量化技术优化内存效率。
大型语言模型
Q
Mungert
1,597
6
Qwen3 32B 128K GGUF
Apache-2.0
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。
大型语言模型
英语
Q
unsloth
20.51k
20
Qwen3 4B 128K GGUF
Apache-2.0
Qwen3-4B是Qwen系列最新一代的大语言模型,具有4B参数规模,支持100多种语言,在推理、指令遵循、代理能力和多语言支持方面表现优异。
大型语言模型
英语
Q
unsloth
15.41k
17
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供32.8B参数的密集模型,在推理能力、指令遵循、智能体功能和多语言支持方面实现突破性进展。
大型语言模型
Transformers
英语
Q
unsloth
10.03k
5
Openbuddy Qwq 32b V25.2q 200k
Apache-2.0
专为增强量化推理能力优化的多语言聊天机器人,支持8种语言,基于Qwen/QwQ-32B模型开发
大型语言模型
支持多种语言
O
OpenBuddy
41
3
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本模型是THUDM/GLM-Z1-9B-0414的GGUF格式转换版本,支持中英文文本生成任务。
大型语言模型
支持多种语言
G
Aldaris
205
2
Deepcoder 1.5B Preview GGUF
MIT
基于DeepSeek-R1-Distilled-Qwen-1.5B微调的代码推理大语言模型,采用分布式强化学习技术扩展长上下文处理能力
大型语言模型
英语
D
Mungert
888
2
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32B的量化版本,使用llama.cpp进行imatrix量化,支持多种量化类型,适用于文本生成任务。
大型语言模型
O
bartowski
1,332
10
Stockllm
FinSeer StockLLM 是一个开源的10亿参数大语言模型,专为金融时间序列预测设计,采用检索增强生成(RAG)框架。
大型语言模型
Transformers
英语
S
TheFinAI
29
1
Gemma 3 4b It Q8 0 GGUF
这是Google Gemma 3B模型的GGUF量化版本,适用于本地部署和推理。
大型语言模型
G
NikolayKozloff
56
2
Gemma 3 12b It Q5 K S GGUF
这是Google Gemma 3B模型的GGUF量化版本,适用于本地推理,支持文本生成任务。
大型语言模型
G
NikolayKozloff
16
1
Gemma 3 12b It Q5 K M GGUF
这是由google/gemma-3-12b-it转换而来的GGUF格式模型,适用于llama.cpp框架。
大型语言模型
G
NikolayKozloff
46
1
Instella 3B Stage1
其他
Instella是由AMD开发的30亿参数开源语言模型系列,基于AMD Instinct™ MI300X GPU训练,性能超越同规模全开源模型。
大型语言模型
Transformers
I
amd
397
12
Reflection Llama 3.1 70B
Reflection Llama-3.1 70B 是一款开源大语言模型,采用'反思调优'技术训练,能够自主检测推理错误并修正方向。
大型语言模型
Transformers
R
mattshumer
199
1,712
Llama3 ChatQA 2 8B
基于Llama-3基础模型开发的128K长上下文大语言模型,专注于提升RAG和长文本理解能力
大型语言模型
PyTorch
英语
L
nvidia
437
16
Xgen Mm Phi3 Mini Instruct Interleave R V1.5
Apache-2.0
xGen-MM是Salesforce AI Research开发的一系列最新基础大型多模态模型(LMMs),在BLIP系列成功设计的基础上进行了改进,通过基础性增强确保了更强大和卓越的模型基础。
图像生成文本
英语
X
Salesforce
7,373
51
Tarsier 7b
Tarsier-7b 是 Tarsier 系列的开源大规模视频语言模型,专注于生成高质量视频描述并具备优秀的通用视频理解能力。
视频生成文本
Transformers
T
omni-research
635
23
Llama 3 ChocoLlama 8B Instruct
基于Llama-3-8B的荷兰语指令优化大模型,通过SFT和DPO在多个荷兰语指令数据集上微调而成
大型语言模型
Transformers
其他
L
ChocoLlama
268
6
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3是基于Mistral-7B-v0.2升级的大语言模型,主要改进是扩展了词汇表至32768个词元。
大型语言模型
Transformers
M
mistralai
442.55k
472
Xgen Mm Phi3 Mini Instruct R V1
xGen-MM是Salesforce AI Research开发的最新基础大型多模态模型系列,基于BLIP系列改进,具有强大的图像理解和文本生成能力。
图像生成文本
Transformers
英语
X
Salesforce
804
186
Llama 2 13B QServe
Llama 2 是 Meta 开发的一系列开源大语言模型,包括不同规模的预训练和微调版本,适用于对话和生成任务。
大型语言模型
Transformers
L
mit-han-lab
21
1
Hamza Xl
Llama 2 是 Meta 发布的新一代开源大语言模型,包含 7B、13B 和 70B 三种参数规模版本,支持商用许可。
大型语言模型
Transformers
H
emrecanacikgoz
71
2
Llama 3 Open Ko 8B Gguf
基于Llama-3-8B框架继续预训练的韩语语言模型,使用超过60GB去重文本数据训练
大型语言模型
支持多种语言
L
teddylee777
7,211
47
Snowflake Arctic Base
Apache-2.0
雪花北极是由雪花AI研究团队开发的密集混合专家(MoE)架构大语言模型,具有4800亿参数,专为高效文本和代码生成设计。
大型语言模型
Transformers
S
Snowflake
166
67
Lm3 8 Bnb 4bit V1.0
基于Llama 2架构的韩语文本生成模型,专注于韩语自然语言处理任务
大型语言模型
Transformers
韩语
L
haes95
18
1
Wizardlaker 7B
Apache-2.0
巫师湖7B是新一代WizardLM 2 7B模型与定制DolphinLake模型的融合模型,表现优异。
大型语言模型
Transformers
W
Noodlz
22
2
Microsoft WizardLM 2 7B
Apache-2.0
WizardLM-2 7B是微软AI团队开发的高效大语言模型,基于Mistral-7B架构,在多语言、推理和代理任务上表现优异。
大型语言模型
Transformers
M
lucyknada
168
51
Openelm 3B
OpenELM是一组开源高效语言模型,采用分层缩放策略优化参数分配,提升模型准确率。
大型语言模型
Transformers
O
apple
1,436
123
Jetmoe 8b
Apache-2.0
JetMoE-8B是一款高效开源大语言模型,以不足10万美元的训练成本达到LLaMA2-7B性能水平,专为低资源环境设计。
大型语言模型
Transformers
J
jetmoe
1,337
246
Mistral Orpo Beta
MIT
Mistral-ORPO-β是基于Mistral-7B使用ORPO方法微调的7B参数语言模型,无需监督微调预热阶段即可直接学习偏好。
大型语言模型
Transformers
英语
M
kaist-ai
18
38
Cogvlm Grounding Generalist Hf Quant4
Apache-2.0
CogVLM是一款强大的开源视觉语言模型,支持目标检测和视觉问答等任务,采用4位精度量化。
图像生成文本
Transformers
C
Rodeszones
50
9
Aya 101
Apache-2.0
Aya 101 是一个支持101种语言指令的大规模多语言生成式语言模型,在各类评估中优于同类模型。
大型语言模型
Transformers
支持多种语言
A
CohereLabs
3,468
640
Smaug 72B V0.1
其他
首个平均分突破80%的开源大语言模型,基于MoMo-72B-lora-1.8.7-DPO微调,采用创新的DPO-Positive技术优化偏好学习
大型语言模型
Transformers
S
abacusai
119
468
Emollama Chat 7b
MIT
Emollama-chat-7b是EmoLLMs项目的组成部分,是首个具备指令跟随能力的开源大语言模型系列,专注于全面情感分析。
大型语言模型
Transformers
英语
E
lzw1008
281
4
Mistral 7B Instruct V0.2 Sparsity 20 V0.1
Apache-2.0
Mistral-7B-Instruct-v0.2是基于Mistral-7B-Instruct-v0.1改进的指令微调大语言模型,采用Wanda剪枝方法压缩至2%稀疏度,无需重新训练即可保持竞争力性能。
大型语言模型
Transformers
M
wang7776
80
1
Torolama 7b V1.0
ToRoLaMa是一个开源的多轮对话大语言模型,专注于越南语,支持多种国际语言。
大型语言模型
Transformers
支持多种语言
T
allbyai
131
10
Geitje 7B Chat V2
Apache-2.0
GEITje-7B是基于Mistral 7B的大型开源荷兰语模型,通过额外训练100亿荷兰语文本标记显著提升了荷兰语能力与本土知识。
大型语言模型
Transformers
其他
G
Rijgersberg
78
17
Supermario V2
Apache-2.0
supermario-v2是一个基于Mistral-7B-v0.1的合并模型,使用了DARE_TIES方法合并了三个不同的模型,具备较强的文本生成能力。
大型语言模型
Transformers
英语
S
jan-hq
77
8