32K长文本处理
Kanana 1.5 8b Instruct 2505 GGUF
Apache-2.0
Kanana 1.5 是 Kanana 模型系列的新版本,在编码、数学和函数调用能力方面有显著提升,能够处理长达32K个令牌的输入,使用YaRN时可处理多达128K个令牌。
大型语言模型
Transformers
支持多种语言
K
Mungert
606
2
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5是Kanana模型家族的新版本,在编码、数学和函数调用能力方面相比前代有显著提升,支持32K tokens长度并可扩展至128K tokens。
大型语言模型
Transformers
支持多种语言
K
kakaocorp
1,932
26
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供稠密模型与混合专家(MoE)模型的完整套件。
大型语言模型
Q
Qwen
1,576
2
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQ是通义千问系列最新一代32.8B参数的大语言模型,采用AWQ 4-bit量化技术,支持思维与非思维模式切换,具备卓越的推理、指令遵循和智能体能力。
大型语言模型
Transformers
Q
Qwen
35.67k
54
Qwen3 235B A22B FP8
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供稠密模型与混合专家(MoE)模型的完整套件。
大型语言模型
Transformers
Q
Qwen
47.30k
68
Qwen3 32B FP8
Apache-2.0
Qwen3-32B-FP8是通义千问系列最新一代32.8B参数大语言模型,支持思维与非思维模式切换,具备卓越的推理、指令遵循和智能体能力。
大型语言模型
Transformers
Q
Qwen
29.26k
47
Qwen3 14B FP8
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供全系列稠密模型和混合专家(MoE)模型,在推理、指令遵循、智能体能力和多语言支持方面取得突破性进展。
大型语言模型
Transformers
Q
Qwen
16.28k
19
Qwen3 8B FP8
Apache-2.0
Qwen3-8B-FP8是通义千问系列大语言模型的最新版本,提供FP8量化版本,支持思维模式与非思维模式的无缝切换,具备强大的推理能力和多语言支持。
大型语言模型
Transformers
Q
Qwen
22.18k
27
Qwen3 32B Unsloth Bnb 4bit
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供32.8B参数的密集模型,在推理能力、指令遵循、智能体功能和多语言支持方面实现突破性进展。
大型语言模型
Transformers
英语
Q
unsloth
10.03k
5
Qwen3 32B GGUF
Apache-2.0
Qwen3是阿里云开发的大规模语言模型系列的最新版本,具有卓越的推理、指令跟随和多语言支持能力。
大型语言模型
英语
Q
unsloth
123.35k
57
Qwen3 32B
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供完整的稠密模型和专家混合(MoE)模型组合。
大型语言模型
Transformers
Q
Qwen
502.01k
321
Kanana 1.5 8b Base
Apache-2.0
Kanana 1.5是Kakao公司开发的双语大语言模型,支持英文和韩文,在编程、数学和函数调用能力方面有显著提升,原生支持32K tokens上下文长度
大型语言模型
Transformers
支持多种语言
K
kakaocorp
432
7
Falcon3
Apache-2.0
Falcon3-10B-Instruct是Falcon3系列的开源基础模型,拥有100亿参数,专注于高质量指令跟随任务,支持多语言处理,上下文长度可达32K tokens。
大型语言模型
F
cortexso
244
1
Midnight Miqu 103B V1.5
基于Miqu的103B混合模型,支持32K上下文长度,仅限个人使用
大型语言模型
Transformers
M
FluffyKaeloky
63
18
PULI LlumiX 32K
PULI LlumiX 32K 是一个基于LLaMA-2-7B-32K的大语言模型,经过匈牙利语和英语数据集的持续预训练,支持32K上下文长度。
大型语言模型
Transformers
支持多种语言
P
NYTK
453
11
Midnight Miqu 103B V1.0
其他
基于Miqu泄露模型的103B参数混合模型,支持32K上下文长度
大型语言模型
Transformers
M
sophosympatheia
18
13