英语文本生成
Gemma3 27b Abliterated Dpo
基于mlabonne/gemma-3-27b-it-abliterated微调的大语言模型,采用Unsloth加速框架和Huggingface的TRL库进行训练,效率提升2倍。
大型语言模型
Transformers
英语
G
summykai
326
3
Ice0.101 20.03 RP GRPO 1
Apache-2.0
基于Unsloth无惰性优化框架和Huggingface TRL训练库优化的薄雾模型,实现2倍速训练效率
大型语言模型
Transformers
英语
I
icefog72
55
2
Nano R1 Model
Apache-2.0
基于Unsloth和Huggingface TRL库优化的Qwen2模型,推理速度提升2倍
大型语言模型
Transformers
英语
N
Mansi-30
25
2
RWKV7 Goose Pile 168M HF
Apache-2.0
采用闪存线性注意力格式的RWKV-7模型,基于Pile数据集训练,支持英语文本生成任务。
大型语言模型
Transformers
英语
R
RWKV
57
2
RWKV7 Goose World3 1.5B HF
Apache-2.0
采用闪存线性注意力(flash-linear attention)格式的RWKV-7模型,支持英语文本生成任务。
大型语言模型
Safetensors
英语
R
RWKV
70
2
Doge 320M
Apache-2.0
Doge是一个采用动态掩码注意力机制进行序列转换的模型,可使用多层感知器或跨域专家混合进行状态转换。
大型语言模型
Transformers
支持多种语言
D
SmallDoge
3,028
4
Stella En 1.5B V5 GGUF
MIT
Stella_en_1.5B_v5 是一个基于英语的文本生成模型,参数规模为15亿,适用于句子相似度等任务。
大型语言模型
英语
S
abhishekbhakat
113
3
Gemma 2 9B It SPPO Iter3
基于自博弈偏好优化方法在第三轮迭代中开发的89亿参数语言模型,以google/gemma-2-9b-it为起点,使用UltraFeedback数据集进行微调
大型语言模型
Transformers
英语
G
UCLA-AGI
6,704
125
Gemma 2 9b It
Gemma是Google推出的轻量级开放大语言模型系列,基于创建Gemini模型的相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
336.05k
705
Mythomax L2 13b Q4 K M GGUF
其他
MythoMax L2 13b是一个基于Q4_K_M量化版本的大语言模型,适用于文本生成任务。
大型语言模型
英语
M
Clevyby
1,716
2
Meta Llama Meta Llama 3 8B Instruct 4bits
Meta Llama 3 8B参数版本的指令调优模型,针对对话场景优化,具有优秀的帮助性和安全性表现。
大型语言模型
Transformers
M
RichardErkhov
28
1
Llama 3 NeuralPaca 8b
基于Meta LLAMA-3-8B构建的优化模型,采用无惰优化技术和Huggingface TRL库训练,速度提升2倍
大型语言模型
Transformers
英语
L
NeuralNovel
21
7
K2
Apache-2.0
K2是一个650亿参数规模的大语言模型,通过完全透明化的训练方案,以35%计算量优势超越Llama 2 70B。
大型语言模型
Transformers
英语
K
LLM360
109
89
Zephyr Orpo 141b A35b V0.1 GGUF
Apache-2.0
基于Mixtral-8x22B-v0.1微调的1410亿参数混合专家模型(MoE),激活参数350亿,主要用于英语文本生成任务
大型语言模型
英语
Z
MaziyarPanahi
10.04k
29
Recurrentgemma 2b
RecurrentGemma是Google基于新型循环架构开发的开放语言模型家族,提供预训练和指令调优版本,适用于多种文本生成任务。
大型语言模型
Transformers
R
google
1,941
92
Microllama
Apache-2.0
MicroLlama是一个由个人开发者keeeeenw在500美元预算内预训练的3亿参数Llama模型,专注于英语文本生成任务。
大型语言模型
Transformers
英语
M
keeeeenw
2,955
46
Gemma 1.1 2b It
Gemma是Google推出的轻量级开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
71.01k
158
Gemma 1.1 7b It
Gemma是Google推出的轻量级开放模型系列,基于与Gemini相同技术构建,适用于文本生成任务。
大型语言模型
Transformers
G
google
17.43k
271
Mixtral Chat 7b
MIT
这是一个通过mergekit工具合并多个Mistral-7B变体模型而成的混合模型,专注于文本生成任务。
大型语言模型
英语
M
LeroyDyer
76
2
Ministral 4b Instruct
Apache-2.0
Ministral是一个基于40亿参数的类GPT模型,采用与Mistral模型相同的架构,但规模更小,主要用于英语文本生成任务。
大型语言模型
Transformers
英语
M
ministral
151
5
Ministral 3b Instruct
Apache-2.0
Ministral是一个基于Mistral架构的小型语言模型系列,参数规模为30亿,主要用于英语文本生成任务。
大型语言模型
Transformers
英语
M
ministral
15.89k
53
Gemma 7b Zephyr Sft
其他
基于Google Gemma 7B模型,采用Zephyr SFT配方微调的大语言模型,主要用于文本生成任务
大型语言模型
Transformers
G
wandb
19
2
Daringmaid 13B
无畏女仆-13B是一个更聪明、更擅长遵循指令的Noromaid版本,通过融合多个优秀模型的特点打造而成。
大型语言模型
Transformers
英语
D
Kooten
76
15
Tinyllama 1.1B Chat V0.4 GGUF
Apache-2.0
TinyLlama-1.1B是一个紧凑型大语言模型,参数规模为11亿,基于Llama 2架构,专为计算和内存受限场景优化。
大型语言模型
英语
T
afrideva
65
4
Tinymistral 248M
Apache-2.0
基于Mistral 7B模型缩减至2.48亿参数的语言模型,专为文本生成任务设计,适用于下游任务微调。
大型语言模型
Transformers
英语
T
Locutusque
1,127
46
Mistral 7b Guanaco
Apache-2.0
基于Llama2架构的预训练语言模型,适用于英语文本生成任务
大型语言模型
Transformers
英语
M
kingabzpro
67
3
Tinyllama 42M Fp32
MIT
这是一个基于TinyStories数据集训练的42M参数Llama 2架构float32精度模型,适用于简单的文本生成任务。
大型语言模型
Transformers
T
nickypro
517
3
Instruct Llama70B Dolly15k
基于Llama-2-70B微调的指令跟随模型,使用Dolly15k数据集训练,适用于英语文本生成任务。
大型语言模型
Transformers
英语
I
Brillibits
114
1
Pile T5 Large
Pile-T5 Large 是基于 T5x 库在 The Pile 数据集上训练的编码器-解码器模型,主要用于英语文本到文本生成任务。
大型语言模型
Transformers
英语
P
EleutherAI
112
15
Llama 2 7b Hf
Llama 2是由Meta开发的70亿参数规模预训练生成文本模型,属于开源大语言模型系列
大型语言模型
Transformers
英语
L
meta-llama
914.57k
2,038
Llama 2 70b Hf
Llama 2是由Meta开发的开源大语言模型系列,包含70亿至700亿参数规模,支持英文文本生成任务。
大型语言模型
Transformers
英语
L
meta-llama
33.86k
849
Cerebras GPT 111M
Apache-2.0
Cerebras-GPT系列中的111M参数模型,采用GPT-3风格架构,使用The Pile数据集训练,遵循Chinchilla扩展定律实现计算最优。
大型语言模型
Transformers
英语
C
cerebras
5,975
76
Pythia 1b
Apache-2.0
Pythia-1B是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的10亿参数规模版本,基于The Pile数据集训练。
大型语言模型
Transformers
英语
P
EleutherAI
79.69k
38
Pythia 12b
Apache-2.0
Pythia-12B是EleutherAI开发的可扩展语言模型套件中的最大模型,拥有120亿参数,专为促进大语言模型科学研究而设计
大型语言模型
Transformers
英语
P
EleutherAI
9,938
136
Comet Atomic En
基于T5架构的英文事件推理模型,用于分析事件的前提条件、影响、意图和反应
大型语言模型
Transformers
英语
C
svjack
319
3
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI开发的大规模语言模型,属于Pythia可扩展套件的一部分,专为促进可解释性研究而设计。
大型语言模型
Transformers
英语
P
EleutherAI
46.72k
54
Pythia 1b Deduped
Apache-2.0
Pythia-10亿去重版是EleutherAI开发的可解释性研究专用语言模型,基于去重Pile数据集训练,采用Transformer架构,参数规模10亿
大型语言模型
Transformers
英语
P
EleutherAI
19.89k
19
Pythia 410m
Apache-2.0
Pythia是EleutherAI开发的一系列因果语言模型,专为可解释性研究设计,包含从7000万到120亿参数的8种规模,提供154个训练检查点
大型语言模型
Transformers
英语
P
EleutherAI
83.28k
25
Pythia 2.8b
Apache-2.0
Pythia-28亿是EleutherAI开发的可扩展语言模型套件中的一员,专为促进大语言模型的可解释性研究而设计。
大型语言模型
Transformers
英语
P
EleutherAI
40.38k
30
Pythia 1.4b
Apache-2.0
Pythia-1.4B是EleutherAI开发的12亿参数因果语言模型,属于Pythia规模套件的一部分,专为可解释性研究设计。
大型语言模型
Transformers
英语
P
EleutherAI
60.98k
23