多任务泛化
Gemma 3 12B FornaxV.2 QAT CoT Q4 0 GGUF
这是一个实验性的小型思维模型,旨在8GiB消费级显卡上运行,具备通用推理能力。
大型语言模型
G
ConicCat
98
1
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414是GLM家族中的轻量级成员,拥有90亿参数,在数学推理和通用任务上表现出色,为资源受限场景提供了高效的解决方案。
大型语言模型
支持多种语言
G
unsloth
4,291
9
T0 3B
Apache-2.0
T0++是基于T5架构的自然语言处理模型,通过多任务提示训练实现零样本任务泛化能力,在多种NLP任务上超越GPT-3且体积更小。
大型语言模型
Transformers
英语
T
bigscience
3,723
100
Llama 3.1 MIG Tulu 3 8B SFT
Apache-2.0
基于自动筛选的5万条Tulu-3-MIG数据集进行微调的Llama-3.1-8B模型
大型语言模型
Transformers
L
xsample
26
3
Spatialvla 4b 224 Sft Bridge
MIT
该模型是基于SpatialVLA模型在bridge数据集上微调得到的视觉-语言-动作模型,专为Simpler-env基准测试打造。
文本生成图像
Transformers
英语
S
IPEC-COMMUNITY
1,066
0
Llama 3.1 8b Medusa V1.01
基于Llama 3.1架构的8B参数语言模型,通过mergekit合并多个专业模型而成,在文本生成任务中表现优异。
大型语言模型
Transformers
L
Nexesenex
95
3
Llama3.1 Gutenberg Doppel 70B
基于Hermes-3-Llama-3.1-70B-lorablated模型,在Gutenberg数据集上进行微调的大语言模型
大型语言模型
Transformers
L
nbeerbower
424
6
Lwm
LWM是首个无线通信领域的基础模型,作为通用特征提取器开发,能够从无线信道数据中提取精细表征。
物理学模型
Transformers
L
wi-lab
137
3
Robustsam Vit Large
MIT
RobustSAM是一种在退化图像上稳健分割任意对象的模型,基于SAM改进,提升了在低质量图像上的分割性能。
图像分割
Transformers
其他
R
jadechoghari
86
4
Llama 3 Gutenberg 8B
其他
基于Llama-3-8b的微调模型,使用Gutenberg DPO数据集进行优化,适用于文本生成任务。
大型语言模型
Transformers
L
nbeerbower
18
9
Percival 01 7b Slerp
Apache-2.0
Percival_01-7b-slerp 是一个在 OPENLLM 排行榜上排名第二的 7B 参数规模的大语言模型,通过 LazyMergekit 工具合并 liminerity/M7-7b 和 Gille/StrangeMerges_32
大型语言模型
Transformers
P
AurelPx
24
4
Roberta Large Zeroshot V2.0 C
MIT
专为高效零样本分类设计的RoBERTa-large模型,使用商业友好数据训练,无需训练数据即可执行文本分类任务。
文本分类
Transformers
英语
R
MoritzLaurer
53
2
Locutusquexfelladrin TinyMistral248M Instruct
Apache-2.0
这是一个通过合并Locutusque/TinyMistral-248M-Instruct和Felladrin/TinyMistral-248M-SFT-v4并使用mergekit工具创建的模型,融合了两者的优势,具有编程能力和推理技巧,同时
大型语言模型
Transformers
英语
L
Locutusque
97
7
Psyfighter 13B
这是一个基于Llama-2-13B的混合模型,结合了Tiefighter、MedLLaMA和limarp-v2等多个模型的特点,适用于多种文本生成任务。
大型语言模型
Transformers
P
jebcarter
86
12
Wizardlm 13B V1.2
WizardLM-13B V1.2是基于Llama-2 13b训练的大型语言模型,专注于复杂指令遵循能力。
大型语言模型
Transformers
W
WizardLMTeam
989
226