多任务通用
Reasoning TIES Coder V1.1
Apache-2.0
这是一个使用TIES方法合并的32B参数规模的大语言模型,基于Rombo-LLM-V3.1-QWQ-32b基础模型融合了多个FuseAI预览模型
大型语言模型
Transformers
R
BenevolenceMessiah
74
2
Unhinged Author 70B
基于TIES方法合并的70B参数大语言模型,以Steelskull/L3.3-MS-Nevoria-70b为基础模型融合了DeepSeek-R1-Distill-Llama-70B模型
大型语言模型
Transformers
U
FiditeNemini
44
3
Calme 3.2 Instruct 78b
其他
calme-3.2-instruct-78b是基于Qwen2.5-72B的高级迭代版本,通过自我合并和微调增强能力的通用领域大语言模型。
大型语言模型
Transformers
英语
C
MaziyarPanahi
2,212
127
Deberta V3 Base Zeroshot V2.0
MIT
基于DeBERTa-v3-base架构的零样本分类模型,专为无需训练数据的文本分类任务设计
文本分类
Transformers
英语
D
MoritzLaurer
7,845
8
Deberta V3 Base Zeroshot V2.0 C
MIT
基于DeBERTa-v3-base的零样本分类模型,专为无需训练数据的分类任务设计,使用商业友好数据训练
文本分类
Transformers
英语
D
MoritzLaurer
504
0
Yamshadowexperiment28 7B
Apache-2.0
截至2024年4月8日,山影实验28号-7B是Open LLM排行榜上性能最佳的7B参数模型。
大型语言模型
Transformers
Y
automerger
101
24
UNA TheBeagle 7b V1
TheBeagle是基于The Bagel数据集训练的70亿参数模型,采用DPO(直接偏好优化)和UNA(统一神经架构)技术优化,在多任务中表现优异。
大型语言模型
Transformers
U
fblgit
88
37
Tinyllama 1.1B Intermediate Step 1195k Token 2.5T
Apache-2.0
TinyLlama是一个1.1B参数的小型Llama模型,在3万亿token上预训练,设计用于资源有限的环境。
大型语言模型
Transformers
英语
T
TinyLlama
419
52
Deberta V3 Base Zeroshot V1.1 All 33
MIT
基于DeBERTa-v3的零样本分类模型,支持33个数据集和387个类别的通用文本分类任务
文本分类
Transformers
英语
D
MoritzLaurer
7,152
28