低内存消耗
FLUX.1 Dev ControlNet Union Pro 2.0 Fp8
其他
这是Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0模型的FP8量化版本,通过PyTorch原生FP8支持从原始BFloat16格式量化而来,优化了推理性能。
图像生成
英语
F
ABDALLALSWAITI
2,023
15
Sonics Spectttra Alpha 120s
MIT
用于端到端合成歌曲检测的先进模型,能够识别AI生成的完整歌曲(包括人声、音乐、歌词和风格)
音频分类
PyTorch
英语
S
awsaf49
1,986
0
Deepseek R1 Distill Qwen 1.5B
MIT
基于DeepSeek-R1-Distill-Qwen-1.5B的多个变体,适配LiteRT框架和MediaPipe LLM推理API,可部署于Android平台。
大型语言模型
D
litert-community
138
4
Llama 3.2 3B Instruct Unsloth Bnb 4bit
基于Meta Llama 3.2-3B-Instruct模型,采用Unsloth动态4位量化技术优化的高效大语言模型
大型语言模型
Transformers
英语
L
unsloth
240.35k
9
Modernbert Large Zeroshot V2.0
Apache-2.0
基于ModernBERT-large微调的零样本分类器,高效快速且内存占用低,适用于多种文本分类任务。
大型语言模型
Transformers
M
MoritzLaurer
25.66k
47
Mms 300m 1130 Forced Aligner
基于Hugging Face预训练模型的文本与音频强制对齐工具,支持多种语言,内存效率高
语音识别
Transformers
支持多种语言
M
MahmoudAshraf
2.5M
50
Google Gemma 2b AWQ 4bit Smashed
基于google/gemma-2b模型通过AWQ技术压缩的4位量化版本,旨在提升推理效率并降低资源消耗。
大型语言模型
Transformers
G
PrunaAI
33
1
Universal NER UniNER 7B All Bnb 4bit Smashed
PrunaAI提供的压缩版UniNER-7B-all模型,通过量化技术显著减少内存占用和能耗,同时保持较好的命名实体识别能力。
大型语言模型
Transformers
U
PrunaAI
22
1
Writer Palmyra Small Bnb 8bit Smashed
PrunaAI优化的8位量化版Palmyra小型语言模型,显著降低内存占用和能耗
大型语言模型
Transformers
W
PrunaAI
31
1
Mosaicml Mpt 7b Storywriter Bnb 4bit Smashed
PrunaAI压缩的MPT-7B故事写作模型,通过llm-int8技术实现高效推理
大型语言模型
Transformers
其他
M
PrunaAI
27
1