高性能推理
Xlangai Jedi 7B 1080p GGUF
Apache-2.0
这是一个使用llama.cpp进行量化的Jedi - 7B - 1080p模型,提供了多种量化类型供用户选择,以平衡文件大小和模型质量。
大型语言模型
英语
X
bartowski
225
1
E N V Y Legion V2.1 LLaMa 70B Elarablated V0.8 Hf GGUF
Legion-V2.1-LLaMa-70B-Elarablated-v0.8-hf是基于LLaMa-70B的量化版本,采用llama.cpp进行优化,提供多种量化选项以适应不同硬件需求。
大型语言模型
E
bartowski
267
1
Nvidia AceReason Nemotron 7B GGUF
其他
AceReason-Nemotron-7B 是一个基于 Nemotron 架构的 7B 参数规模的大型语言模型,提供多种量化版本以适应不同硬件需求。
大型语言模型
N
bartowski
209
2
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
这是一个基于Qwen/Qwen3-235B-A22B模型转换而来的混合3-6位量化版本,适用于苹果MLX框架的高效推理。
大型语言模型
Q
mlx-community
100
2
Nvidia OpenCodeReasoning Nemotron 14B GGUF
Apache-2.0
这是NVIDIA OpenCodeReasoning-Nemotron-14B模型的Llamacpp imatrix量化版本,适用于代码推理任务。
大型语言模型
支持多种语言
N
bartowski
1,771
2
Gpt2 774M Fineweb 150B
MIT
该模型源自karpathy的llm.c项目,为研究bfloat16性能而转换为HuggingFace格式,训练过程消耗了1500亿token。
大型语言模型
Transformers
G
rhysjones
22
6
Qwen2.5 Recursive Coder 14B Instruct
Apache-2.0
基于Qwen2.5架构的14B参数规模代码生成与理解模型,通过Model Stock方法融合多个专业编码模型而成
大型语言模型
Transformers
Q
spacematt
39
2
Qwen2.5 Smooth Coder 14B Instruct
Apache-2.0
这是一个基于Qwen2.5-14B架构的多模型融合结果,采用Model Stock融合方法,结合了22个不同来源的14B参数规模模型。
大型语言模型
Transformers
Q
spacematt
38
2
Qwen2.5 Bakeneko 32b Instruct V2
Apache-2.0
基于Qwen2.5 Bakeneko 32B的指令调优变体,通过Chat Vector和ORPO优化增强指令跟随能力,在日语MT-Bench上表现出色。
大型语言模型
Transformers
日语
Q
rinna
140
6
Instella 3B Stage1
其他
Instella是由AMD开发的30亿参数开源语言模型系列,基于AMD Instinct™ MI300X GPU训练,性能超越同规模全开源模型。
大型语言模型
Transformers
I
amd
397
12
Yolov8
YOLOv8 是 Ultralytics 开发的最新一代目标检测模型,基于先前 YOLO 版本的成功构建,引入了新功能和改进,进一步提升性能和灵活性。
目标检测
Y
Ultralytics
5,391
212
Mixtral 7b 8expert
Apache-2.0
MistralAI最新发布的混合专家(MoE)模型,支持多语言文本生成任务
大型语言模型
Transformers
支持多种语言
M
DiscoResearch
57.47k
264
Yi 34B Chat
Apache-2.0
Yi-34B-Chat是由01.AI开发的双语优化大语言模型,在语言理解、常识推理和阅读理解方面表现卓越,支持中英文交互。
大型语言模型
Transformers
Y
01-ai
5,784
350
Yi 6B
Apache-2.0
Yi-34B-Chat是由01.AI开发的双语大语言模型,在AlpacaEval排行榜上仅次于GPT-4 Turbo,表现优异。
大型语言模型
Transformers
Y
01-ai
17.03k
372