代码生成增强
Falcon H1 7B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的因果解码器专用语言模型,支持多语言处理,性能优异。
大型语言模型
Transformers
支持多种语言
F
tiiuae
227
1
Falcon H1 0.5B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的仅解码因果模型,专注于英语NLP任务,性能优异。
大型语言模型
Transformers
F
tiiuae
485
10
Qwen2.5 7B Fuse Exp
这是一个使用mergekit工具通过SCE方法合并多个7B参数规模模型的语言模型
大型语言模型
Transformers
Q
bunnycore
22
2
Gemma 3 27b It Qat Q4 0 GGUF
这是一个实验性的重新量化模型,基于Google的Gemma-3-27b-it QAT Q4_0量化模型创建,旨在测试重新量化后的性能表现。
大型语言模型
G
Mungert
1,096
6
Gemma 3 27b It Codeforces SFT
该模型是基于google/gemma-3-27b-it在open-r1/codeforces-cots数据集上微调的版本,主要用于代码生成和编程相关任务。
大型语言模型
Transformers
G
qgallouedec
14
4
Reasoning SCE Coder V1.0
基于SCE融合方法构建的32B参数规模大语言模型,融合了多个高性能预训练模型
大型语言模型
Transformers
R
BenevolenceMessiah
235
3
Deepseek V2 Lite
DeepSeek-V2-Lite 是一款经济高效的专家混合(MoE)语言模型,总参数量16B,激活参数量2.4B,支持32k上下文长度。
大型语言模型
Transformers
D
ZZichen
20
1
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5是Yi模型的升级版本,在编程、数学、推理和指令跟随能力方面表现更出色,同时保持卓越的语言理解、常识推理和阅读理解能力。
大型语言模型
Transformers
Y
01-ai
70.62k
270