轻量级LLM
Qwen3 0.6B Base
Apache-2.0
Qwen3是通义千问系列最新一代6亿参数大语言模型,支持32k上下文长度,覆盖119种语言
大型语言模型
Transformers
Q
Qwen
58.85k
44
Minicpm S 1B Sft
Apache-2.0
MiniCPM-S-1B-sft 是一个基于激活稀疏化技术优化的1B参数规模语言模型,通过ProSparse方法实现高稀疏性推理加速,同时保持与原始模型相当的性能。
大型语言模型
Transformers
支持多种语言
M
openbmb
169
10
Gpt2 774M Fineweb 150B
MIT
该模型源自karpathy的llm.c项目,为研究bfloat16性能而转换为HuggingFace格式,训练过程消耗了1500亿token。
大型语言模型
Transformers
G
rhysjones
22
6
Txgemma 27b Predict
其他
TxGemma是基于Gemma 2构建的一系列轻量级、先进的开放语言模型,专为治疗开发而微调。
大型语言模型
Transformers
英语
T
google
1,255
24
Txgemma 9b Chat
其他
TxGemma是基于Gemma 2构建的轻量级开源语言模型,专为治疗开发而微调,提供2B、9B和27B三种规模。
大型语言模型
Transformers
英语
T
google
4,111
31
Qwen Encoder 0.5B GGUF
Apache-2.0
这是一个基于knowledgator/Qwen-encoder-0.5B模型的静态量化版本,主要用于文本编码任务。
大型语言模型
英语
Q
mradermacher
175
1
Diraya 3B Instruct Ar
Apache-2.0
基于Qwen2.5-3B微调的阿拉伯语推理专用语言模型,专注于提升阿拉伯语语言模型在逻辑推理和数学解题方面的能力。
大型语言模型
Transformers
阿拉伯语
D
Omartificial-Intelligence-Space
86
2
Qvikhr 2.5 1.5B Instruct SMPO MLX 4bit
Apache-2.0
这是一个基于QVikhr-2.5-1.5B-Instruct-SMPO模型的4位量化版本,专为MLX框架优化,支持俄语和英语的指令理解与生成任务。
大型语言模型
Transformers
支持多种语言
Q
Vikhrmodels
249
2
Deepseek R1 Distill Llama 8B Abliterated
DeepSeek-R1-Distill-Llama-8B 是一个基于 Llama 架构的蒸馏版大语言模型,参数规模为 8B,主要用于英文文本生成和理解任务。
大型语言模型
Transformers
英语
D
stepenZEN
119
9
Microsoft Phi 4 GPTQ Int4
Phi-4是微软开发的高效小型语言模型,专注于在有限资源下实现高性能推理
大型语言模型
Transformers
M
jakiAJK
1,404
2
Dolphin3.0 Llama3.2 1B GGUF
基于Llama3.2架构的1B参数量化模型,支持文本生成任务,适用于多种量化版本选择
大型语言模型
英语
D
bartowski
1,134
4
H2o Danube3.1 4b Chat
Apache-2.0
由H2O.ai微调的40亿参数聊天模型,基于Llama 2架构调整,支持8192上下文长度
大型语言模型
Transformers
英语
H
h2oai
271
5
Cotype Nano
其他
Cotype-Nano是一个轻量级LLM,专为以最小资源执行任务而设计。
大型语言模型
Transformers
C
MTSAIR
4,075
51
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基于Meta-Llama-3.1-8B-Instruct剪枝至1.4B参数规模,并采用LLM-Neo方法(结合LoRA与知识蒸馏)微调的高效语言模型。
大型语言模型
Transformers
L
yang31210999
39
2
H2o Danube3 500m Chat
Apache-2.0
H2O.ai开发的500M参数对话微调模型,基于Llama 2架构调整,支持中文对话
大型语言模型
Transformers
英语
H
h2oai
3,728
36
Gemma 2 27b It
Gemma是Google推出的轻量级开源大语言模型系列,基于创建Gemini模型的相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
160.10k
543
Tinychat 1776K
Apache-2.0
这是一个基于TinyChat数据集从头训练的小型语言模型,目标是通过最小规模的模型实现自然对话响应。
大型语言模型
Transformers
T
raincandy-u
157
9
Orca Mini V5 8b Dpo
基于Llama 3架构的8B参数模型,使用多种DPO数据集训练,专注于文本生成任务
大型语言模型
Transformers
英语
O
pankajmathur
16
3
Llava Phi 3 Mini Gguf
LLaVA-Phi-3-mini 是基于 Phi-3-mini-4k-instruct 和 CLIP-ViT-Large-patch14-336 微调的 LLaVA 模型,专注于图像转文本任务。
图像生成文本
L
xtuner
1,676
133
Llama 3 Korean Bllossom 8B
Bllossom是基于Llama3的韩英双语语言模型,通过全面调优增强韩语能力,扩展了韩语词汇并优化了韩语上下文处理能力。
大型语言模型
Transformers
支持多种语言
L
MLP-KTLim
26.67k
333
Wikichat V2
Apache-2.0
WikiChat-v0.2是一个正在训练的对话模型,基于OpenOrca GPT-4数据、cosmopedia和dolly15k数据集训练,支持英语文本生成任务。
大型语言模型
英语
W
leafspark
86
2
Creek
Apache-2.0
从零构建的大语言模型,包含分词器训练、模型初始化、预训练与指令微调全流程开源实现
大型语言模型
Transformers
C
maheer
21
1
Deepseek Llm Tiny Random
这是一个基于DeepSeek-LLM-67B-Chat架构的随机初始化小型模型,采用float16精度,主要用于文本生成任务。
大型语言模型
Transformers
D
yujiepan
38
1
Gemma Ko 7b
其他
Gemma-Ko是基于谷歌Gemma模型开发的韩语大语言模型,提供7B参数版本,适用于韩语和英语的文本生成任务。
大型语言模型
Transformers
支持多种语言
G
beomi
381
49
Tinyllava 2.0B
Apache-2.0
TinyLLaVA是一个小型大规模多模态模型框架,在保持高性能的同时显著减少参数数量。
文本生成图像
Transformers
支持多种语言
T
bczhou
562
6
Tinyllava 3.1B
Apache-2.0
TinyLLaVA是一个小规模大型多模态模型框架,在保持高性能的同时显著减少参数数量。
文本生成图像
Transformers
支持多种语言
T
bczhou
184
26
Llava Phi2
MIT
Llava-Phi2是基于Phi2的多模态实现,结合了视觉和语言处理能力,适用于图像文本到文本的任务。
图像生成文本
Transformers
英语
L
RaviNaik
153
6
MELT TinyLlama 1.1B Chat V1.0
Apache-2.0
基于医学数据微调的1.1B参数对话型语言模型,在医学考试基准上平均提升13.76%
大型语言模型
Transformers
英语
M
IBI-CAAI
3,010
1
Mobilellama 1.4B Base GGUF
Apache-2.0
MobileLLaMA-1.4B-Base的GGUF量化格式版本,适用于本地部署和推理
大型语言模型
M
andrijdavid
311
2
Mobilellama 1.4B Base
Apache-2.0
MobileLLaMA-1.4B-Base 是一个拥有14亿参数的Transformer模型,专为开箱即用的部署设计,基于RedPajama v1数据集训练。
大型语言模型
Transformers
M
mtgv
1,376
19
Cendol Mt5 Small Chat
Apache-2.0
Cendol mT5-small Chat是一个3亿参数的开源生成式大语言模型,针对印尼语、巽他语和爪哇语进行指令调优,适用于单轮对话场景。
大型语言模型
Transformers
其他
C
indonlp
46
3
Tinyalpaca V0.1
MIT
TinyLlama 是一个基于 LLaMA 架构的小型语言模型,参数规模为 11 亿,使用 alpaca-cleaned 数据集进行微调。
大型语言模型
Transformers
T
blueapple8259
85
1
Tiny Llama Miniguanaco 1.5T
Apache-2.0
TinyLlama 1.5T检查点是一个基于1.1B参数的小型语言模型,训练用于回答问题。
大型语言模型
Transformers
英语
T
Corianas
97
3
Sheared LLaMA 2.7B
Apache-2.0
Sheared-LLaMA-2.7B是基于Llama-2-7b通过剪枝和继续预训练得到的轻量级语言模型,仅消耗50B tokens预算。
大型语言模型
Transformers
S
princeton-nlp
1,131
60
Sheared LLaMA 1.3B
Apache-2.0
Sheared-LLaMA-1.3B是基于LLaMA-2-7B通过结构化剪枝和持续预训练得到的高效语言模型
大型语言模型
Transformers
S
princeton-nlp
11.09k
94
Chinese Llama 2 1.3b
Apache-2.0
Chinese-LLaMA-2-1.3B是基于Meta发布的Llama-2模型的中文基础模型,扩充了中文词表并进行了中文预训练,提升了中文基础语义理解能力。
大型语言模型
Transformers
支持多种语言
C
hfl
1,074
19
Llama 2 7b Int4 GPTQ Python Code 20k
Gpl-3.0
这是Llama 2 7B模型的4位GPTQ量化版本,专门针对Python代码生成任务进行了微调
大型语言模型
Transformers
其他
L
edumunozsala
22
1
Orca Alpaca 3b
基于Open_LLaMA-3B模型训练的解释性调优模型,采用Alpaca数据集的指令和输入,并应用了Orca研究论文的数据集构建方法。
大型语言模型
Transformers
英语
O
pankajmathur
85
12
Dolly V2 3b
MIT
Databricks推出的28亿参数指令微调大语言模型,基于pythia-2.8b架构,在1.5万条指令数据上微调而成,支持商业用途
大型语言模型
Transformers
英语
D
databricks
15.36k
289