Skywork Skywork OR1 7B GGUF
Skywork-OR1-7B 是一个 7B 参数规模的大语言模型,提供多种量化版本以适应不同硬件需求。
大型语言模型
S
bartowski
634
1
Andrewzh Absolute Zero Reasoner Coder 14b GGUF
基于andrewzh的Absolute_Zero_Reasoner-Coder-14b模型,使用llama.cpp进行imatrix量化的版本,适用于推理和代码生成任务。
大型语言模型
A
bartowski
1,995
5
Servicenow AI Apriel Nemotron 15b Thinker GGUF
MIT
这是一个由ServiceNow语言模型(SLAM)实验室构建的15B参数大语言模型,经过llama.cpp工具量化处理,适用于本地推理部署。
大型语言模型
S
bartowski
3,707
11
Qwen3 32B Quantized.w4a16
Apache-2.0
Qwen3-32B的INT4量化版本,通过权重量化减少75%的磁盘和GPU内存需求,保持高性能
大型语言模型
Transformers

Q
RedHatAI
2,213
5
Skin Disease Classifier
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

S
muhammadnoman76
28
0
Qwen3 32B FP8 Dynamic
Apache-2.0
基于Qwen3-32B进行FP8动态量化的高效语言模型,显著降低内存需求并提升计算效率
大型语言模型
Transformers

Q
RedHatAI
917
8
Qwen3 4B Mishima Imatrix GGUF
Apache-2.0
基于Qwen3-4B的Mishima Imatrix量化版本,通过特定数据集增强散文风格生成能力
大型语言模型
Q
DavidAU
105
2
Mlabonne Qwen3 8B Abliterated GGUF
这是Qwen3-8B-abliterated模型的量化版本,使用llama.cpp进行量化,适用于文本生成任务。
大型语言模型
M
bartowski
6,892
5
Qwen Qwen3 8B GGUF
Apache-2.0
Qwen3-8B的量化版本,使用llama.cpp的imatrix选项进行量化,适用于文本生成任务。
大型语言模型
Q
bartowski
23.88k
18
Kogptv3 Contextbasedv4
该模型是一个基于transformers库的模型,具体功能和用途需要进一步信息补充。
大型语言模型
Transformers

K
KingKDB
90
2
774M Export
该模型是一个基于transformers库的模型,具体用途和功能需要进一步信息确认。
大型语言模型
Transformers

7
karpathy
25
2
Imagecaptioning4
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

I
eduardo-bolognini
82
1
Gemma 3 4B It Qat GGUF
Google出品的Gemma 3 4B IT模型,支持多模态输入和长上下文处理,适用于文本生成和图像理解任务。
图像生成文本
G
lmstudio-community
46.55k
10
Dreamgen Lucid V1 Nemo GGUF
其他
基于 dreamgen/lucid-v1-nemo 的量化模型,使用 llama.cpp 进行多种量化处理,适用于文本生成任务。
大型语言模型
英语
D
bartowski
6,593
5
Openclip ViT G FARE2
MIT
该模型是一个基于Transformers架构的模型,具体用途和功能需要进一步信息确认。
大型语言模型
Transformers

O
RCLIP
25
0
News Classification
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
大型语言模型
Transformers

N
Sanali18
111
1
Phi 4 GGUF
MIT
phi-4是微软研究院开发的开源语言模型,专注于高质量数据和推理能力,适用于内存/计算受限环境。
大型语言模型
支持多种语言
P
Mungert
1,508
3
Reasonflux F1 7B
其他
ReasonFlux-F1-7B是基于思维模板扩展的分层大语言模型推理模型,通过模板增强推理轨迹微调而成,在多项推理任务中表现优异。
大型语言模型
Transformers

R
Gen-Verse
291
2
Reasonflux F1
其他
ReasonFlux-F1-32B是基于思维模板扩展的分层大语言模型,通过模板增强推理轨迹微调,在推理任务中表现优异。
大型语言模型
Transformers

R
Gen-Verse
123
8
Deepfake Detector Faceforensics
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
大型语言模型
Transformers

D
HrutikAdsare
57
1
Full Finetuned Bert Qa
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

F
reidddd
55
1
Alphatable 1.5B
该模型是一个基于transformers库的模型,具体用途和功能未明确说明。
大型语言模型
Transformers

A
jan-hq
72
2
Reasoning TIES Coder V1.1
Apache-2.0
这是一个使用TIES方法合并的32B参数规模的大语言模型,基于Rombo-LLM-V3.1-QWQ-32b基础模型融合了多个FuseAI预览模型
大型语言模型
Transformers

R
BenevolenceMessiah
74
2
Bytedance Research.ui TARS 72B SFT GGUF
字节跳动研究团队发布的72B参数规模的多模态基础模型,专注于图像文本转文本任务
图像生成文本
B
DevQuasar
81
1
Deductive Reasoning Qwen 32B
MIT
基于Qwen 2.5 32B Instruct通过强化微调训练的模型,专门用于解决Temporal Clue数据集中具有挑战性的演绎推理问题。
大型语言模型
Transformers

英语
D
OpenPipe
1,669
39
Yue S1 7B Anneal En Cot Exl2
Apache-2.0
基于m-a-p/YuE-s1-7B-anneal-en-cot模型使用Exllamav2量化的版本,适用于文本生成任务,特别在音乐相关领域表现良好。
大型语言模型
英语
Y
Doctor-Shotgun
94
10
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2是基于多个Phi-4变体模型合并而成的大语言模型,采用model_stock合并方法,在多个基准测试中表现良好。
大型语言模型
Transformers

P
bunnycore
56
2
QVQ 72B Preview Abliterated GPTQ Int8
其他
这是QVQ-72B-Preview-abliterated模型的GPTQ量化8位版本,支持图像文本到文本的转换任务。
图像生成文本
Transformers

英语
Q
huihui-ai
48
1
Llama 3.2 Vision 11b 4bits
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

L
vanthuanngo
308
1
Qwen2.5 1.5B Apeach
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确描述。
大型语言模型
Transformers

Q
jason9693
49.16k
3
Phien Table Structure Recognition 143
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
大型语言模型
Transformers

P
trungphien
27
0
Florence 2 Large Florence 2 Large Nsfw Pretrain Gt
该模型是一个基于transformers库的模型,具体功能和用途需要进一步信息确认。
大型语言模型
Transformers

F
ljnlonoljpiljm
55
6
Meta Llama 3.1 70B FP8
Meta-Llama-3.1-70B的FP8量化版本,适用于多语言的商业和研究用途,权重和激活均量化为FP8格式,减少约50%的存储和内存需求。
大型语言模型
Transformers

支持多种语言
M
RedHatAI
191
2
KAIROS Ast Fake Audio Detection Unsupervised
该模型是一个基于Transformers库的模型,具体用途和功能需要进一步的信息来确定。
大型语言模型
Transformers

K
012shin
41
3
Speech To Speech
未提供模型的具体信息。
大型语言模型
Transformers

S
tanisultan
16
2
Qwen2 72B Instruct 2.0bpw H Novel Exl2
其他
通义千问新一代72B参数大语言模型,支持131K长文本处理,在语言理解、文本生成、编程和数学推理等领域表现优异
大型语言模型
Transformers

英语
Q
Orion-zhen
21
1
Llama2 Time Series Forecasting 7.0
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
大型语言模型
Transformers

L
Ankur87
80
1
Higgs Llama 3 70B
其他
基于Meta-Llama-3-70B进行后训练的模型,专为角色扮演任务优化,同时在通用领域指令跟随和推理任务中表现优异。
大型语言模型
Transformers

H
bosonai
220
220
Resnet50 Facial Emotion Recognition
Apache-2.0
这是一个基于Apache-2.0许可证发布的AI模型,具体功能需要根据实际模型类型确定
大型语言模型
Transformers

R
KhaldiAbderrhmane
50
3
Yism 34B 0rn
Apache-2.0
YiSM-34B-0rn是一个基于Yi-1.5-34B和Yi-1.5-34B-Chat融合的大语言模型,旨在平衡指令遵循能力和基础模型特性。
大型语言模型
Transformers

Y
altomek
22
2
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文