多任务文本生成
Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
基于Llama-3.1架构的8B参数大语言模型,提供多种量化版本的GGUF格式文件
大型语言模型
英语
L
tensorblock
44
1
Nvidia.llama 3 3 Nemotron Super 49B V1 GGUF
由NVIDIA开发的大型语言模型,基于Llama-3架构,拥有490亿参数,适用于多种文本生成任务。
大型语言模型
N
DevQuasar
1,259
2
Llama 3.1 8b DodoWild V2.01
基于Llama 3.1架构的8B参数语言模型,通过mergekit合并多个模型而成,具备文本生成能力
大型语言模型
Transformers
L
Nexesenex
58
2
Llama 3.1 8b Dolermed V1.01
基于Llama 3.1架构的8B参数模型,通过mergekit合并多个预训练模型而成,具备文本生成能力。
大型语言模型
Transformers
L
Nexesenex
95
4
Qwen2.5 Dyanka 7B Preview
Apache-2.0
基于Qwen2.5架构的7B参数规模语言模型,通过TIES方法融合多个预训练模型而成
大型语言模型
Transformers
Q
Xiaojian9992024
1,497
8
Li 14b V0.4 Slerp0.1
这是一个使用SLERP方法合并的14B参数规模的大语言模型,由li-14b-v0.4和miscii-14b-0218两个基础模型合并而成。
大型语言模型
Transformers
L
wanlige
70
7
Thait5 Instruct
MIT
基于kobkrit/thai-t5-base微调的泰语指令模型,支持对话、问答、摘要等任务
大型语言模型
Transformers
其他
T
Peenipat
41
1
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2是基于多个Phi-4变体模型合并而成的大语言模型,采用model_stock合并方法,在多个基准测试中表现良好。
大型语言模型
Transformers
P
bunnycore
56
2
Dolphin3.0 Llama3.2 1B GGUF
基于Llama3.2架构的1B参数量化模型,支持文本生成任务,适用于多种量化版本选择
大型语言模型
英语
D
bartowski
1,134
4
Llm Jp 3 13b
Apache-2.0
由日本国立信息学研究所开发的大语言模型,支持日语和英语,基于Transformer架构,参数量130亿
大型语言模型
Transformers
支持多种语言
L
llm-jp
1,190
13
Buddyglass V0.3 Xortron7MethedUpSwitchedUp
基于多个8B参数Llama-3.1模型的合并模型,采用model_stock方法优化性能
大型语言模型
Transformers
B
darkc0de
15
5
Gemma 2 2b
Gemma是Google推出的轻量级前沿开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
502.52k
540
Gemma 2 9b
Gemma是Google推出的轻量级前沿开放模型系列,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
45.11k
655
Gemma 2 27b It
Gemma是Google推出的轻量级开源大语言模型系列,基于创建Gemini模型的相同技术构建,适用于多种文本生成任务。
大型语言模型
Transformers
G
google
160.10k
543
Orca Mini V5 8b Dpo
基于Llama 3架构的8B参数模型,使用多种DPO数据集训练,专注于文本生成任务
大型语言模型
Transformers
英语
O
pankajmathur
16
3
UNA ThePitbull 21.4B V2
UNA-ThePitbull-21.4B-v2是一款基于21.4B参数的大型语言模型,性能接近70B模型,融合了情商与智商,擅长对话和文本生成。
大型语言模型
Transformers
U
fblgit
16
16
Llama4some SOVL 4x8B L3 V1
这是一个通过mergekit合并多个预训练语言模型得到的专家混合模型,旨在创造最不受约束的文本生成能力。
大型语言模型
Transformers
L
saishf
22
3
Llama 3 Stinky V2 8B
其他
这是一个基于Llama-3架构的8B参数模型,通过mergekit工具合并了多个预训练模型,具有较好的文本生成能力。
大型语言模型
Transformers
L
nbeerbower
39
5
Spyazweb AI DeepMind Project
Apache-2.0
基于Mixtral架构的多功能大语言模型,融合深度心智与自我优化能力,支持多语言文本生成与复杂推理任务
大型语言模型
Transformers
英语
S
LeroyDyer
97
3
Llama 3 8b Ita
基于Meta-Llama-3-8B优化的意大利语大语言模型,支持英语和意大利语文本生成任务
大型语言模型
Transformers
支持多种语言
L
DeepMount00
16.00k
27
Phi 3 Portuguese Tom Cat 4k Instruct
Apache-2.0
基于30万条葡萄牙语指令数据集训练的葡萄牙语模型,由microsoft/Phi-3-mini-4k微调而来
大型语言模型
Transformers
其他
P
rhaymison
83
14
Cabrallama3 8b
基于Meta-Llama-3-8B-Instruct的增强版本,通过卡布拉30k数据集进行微调优化,特别针对葡萄牙语理解和应答进行了专项优化。
大型语言模型
支持多种语言
C
botbot-ai
66
19
Meta Llama 3 8B Instruct
Meta发布的80亿参数指令微调大语言模型,优化对话场景并在基准测试中超越多数开源聊天模型
大型语言模型
Transformers
英语
M
meta-llama
1.2M
3,933
Orbita V0.1
Apache-2.0
Orbita-v0.1是一个基于Qwen 14B的土耳其语大语言模型,在土耳其语的多个维度上具备多样化能力,涵盖编程、数学等多种任务。
大型语言模型
Transformers
其他
O
Orbina
2,833
41
Neuralstar AlphaWriter 4x7b
Apache-2.0
NeuralStar_AlphaWriter_4x7b是一个基于混合专家技术(MoE)构建的7B参数语言模型,专为创意写作任务优化,融合了四个擅长不同写作领域的专家模型。
大型语言模型
Transformers
N
OmnicromsBrain
21
10
Mera Mix 4x7B
Apache-2.0
mera-mix-4x7B是一个专家混合(MoE)模型,规模为Mixtral-8x7B的一半,但性能相当且推理速度更快。
大型语言模型
Transformers
M
meraGPT
2,375
19
Recurrentgemma 2b It
RecurrentGemma是基于Google新型循环架构构建的开源语言模型,提供更高效的长序列处理能力
大型语言模型
Transformers
R
google
5,418
110
Mistral Portuguese Luana 7b
Apache-2.0
基于Mistral-7B微调的葡萄牙语指令优化模型,使用20万条葡萄牙语指令训练,填补葡萄牙语模型空白
大型语言模型
Transformers
其他
M
rhaymison
59
11
Gemma Portuguese Luana 2b
Apache-2.0
这是一个基于Gemma架构的2B参数规模的葡萄牙语大语言模型,专门针对巴西葡萄牙语优化,支持指令跟随和文本生成任务。
大型语言模型
Transformers
其他
G
rhaymison
115
4
Mistral 7B Portuguese
基于Mistral-7B-Instruct-v0.2微调的葡萄牙语大语言模型,专注于提升葡萄牙语文本生成能力
大型语言模型
Transformers
支持多种语言
M
cnmoro
124
13
Zephyr 7b Gemma V0.1
其他
Zephyr 7B Gemma是基于google/gemma-7b微调的语言模型,使用直接偏好优化(DPO)在公开合成数据集上训练,旨在作为有用的助手。
大型语言模型
Transformers
Z
HuggingFaceH4
502
124
Tito 7B Slerp
Apache-2.0
Tito-7B-slerp是通过mergekit工具融合YugoGPT和AlphaMonarch-7B两个模型而成的大语言模型,在塞尔维亚语和英语任务上表现优异。
大型语言模型
Transformers
T
Stopwolf
22
4
Gemma 7b It
Gemma是Google推出的轻量级开放模型系列,基于与Gemini相同技术构建,适用于文本生成任务。
大型语言模型
G
google
77.07k
1,163
Pasta Lake 7b
其他
Pasta-Lake-7b 是一个通过合并 Test157t/Pasta-PrimaMaid-7b 和 macadeliccc/WestLake-7B-v2-laser-truthy-dpo 两个模型而创建的7B参数规模的语言模型。
大型语言模型
Transformers
P
Nitral-Archive
93
6
Gemma 7b
Gemma是Google推出的轻量级开源大语言模型,基于与Gemini相同技术构建,适用于多种文本生成任务。
大型语言模型
G
google
55.61k
3,160
Gemma 2b It
Gemma是Google推出的轻量级开源大语言模型系列,基于创建Gemini模型的研究和技术构建。
大型语言模型
G
google
108.61k
730
Tinymistral 248M V3
Apache-2.0
TinyMistral-248M-v3 是一个248M参数规模的小型语言模型,目前仍在训练中,已训练约210亿个标记。
大型语言模型
Transformers
英语
T
M4-ai
179
8
Boreangale 70B
其他
BoreanGale-70B 是一个使用自定义算法(NearSwap)合并的70B参数大语言模型,由miqu-1-70b-sf和WinterGoddess-1.4x-70B-L2两个模型合并而成。
大型语言模型
Transformers
B
alchemonaut
17
5
Strangemerges 17 7B Dare Ties
Apache-2.0
StrangeMerges_17-7B-dare_ties是通过LazyMergekit合并的两个模型Gille/StrangeMerges_16-7B-slerp和Gille/StrangeMerges_12-7B-slerp的产物,采用
大型语言模型
Transformers
S
Gille
20
1
Westlake 7B V2 Laser Truthy Dpo
Apache-2.0
基于WestLake-7B-v2-laser模型在truthy-dpo-v0.1数据集上进行微调的大语言模型,专注于文本生成任务,在多项基准测试中表现优异。
大型语言模型
Transformers
W
macadeliccc
9,693
25