# 三阶段预训练

Qwen3 30B A3B Base
Apache-2.0
Qwen3-30B-A3B-Base是Qwen系列最新一代大语言模型,在训练数据、模型架构和优化技术等方面有诸多改进,提供更强大的语言处理能力。
大型语言模型 Transformers
Q
unsloth
1,822
3
Qwen3 14B Base
Apache-2.0
Qwen3-14B-Base是通义系列最新一代大语言模型,提供了一套全面的密集和混合专家(MoE)模型,在训练数据、模型架构和优化技术方面有显著改进。
大型语言模型 Transformers
Q
unsloth
4,693
1
Qwen3 1.7B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-1.7B-Base是通义千问系列最新一代大语言模型,提供高质量的预训练语言模型能力。
大型语言模型 Transformers
Q
unsloth
689
1
Qwen3 1.7B Base
Apache-2.0
Qwen3-1.7B-Base是通义系列最新一代大语言模型,提供了一系列密集模型和专家混合(MoE)模型,在训练数据、模型架构和优化技术等方面进行了大量改进。
大型语言模型 Transformers
Q
unsloth
7,444
2
Qwen3 0.6B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-0.6B-Base是通义系列最新一代大语言模型,具有0.6B参数规模,支持119种语言,上下文长度达32,768标记。
大型语言模型 Transformers
Q
unsloth
10.84k
1
Qwen3 0.6B Base
Apache-2.0
Qwen3-0.6B-Base是通义千问系列的最新一代大语言模型,提供了一系列密集模型和混合专家(MoE)模型。
大型语言模型 Transformers
Q
unsloth
10.84k
2
Qwen3 1.7B Base
Apache-2.0
Qwen3-1.7B是通义千问系列最新一代17亿参数基础语言模型,采用三阶段预训练体系,支持32k上下文长度。
大型语言模型 Transformers
Q
Qwen
19.24k
19
Qwen3 8B Base
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供完整的稠密模型与混合专家(MoE)模型体系,覆盖119种语言的36万亿token预训练数据。
大型语言模型 Transformers
Q
Qwen
26.79k
26
PISCES
PISCES 是一个预训练的多语言摘要生成模型,通过三阶段预训练过程掌握语言建模、跨语言能力和摘要生成能力。
文本生成 Transformers
P
Krystalan
15
1
Albert For Arqmath 3
基于ALBERT-base-v2架构,通过Math StackExchange数据三阶段预训练,优化数学公式切分效果,用于数学问答匹配任务
问答系统 Transformers 英语
A
AnReu
365
5
AIbase
智启未来,您的人工智能解决方案智库
简体中文