高效推理优化
AM Thinking V1 GGUF
Apache-2.0
AM-Thinking-v1 是一个基于 GGUF 格式的文本生成模型,适用于多种自然语言处理任务。
大型语言模型
Transformers
A
Mungert
1,234
1
Qwen3 235B A22B Exl3
Apache-2.0
Qwen3-235B-A22B 的 Exllamav3 量化版本,提供多种量化选项以优化模型大小和性能。
大型语言模型
Q
MikeRoz
37
4
Llama 3.1 Nemotron Nano 4B V1.1
其他
Llama-3.1-Nemotron-Nano-4B-v1.1 是一个基于Llama 3.1压缩优化的大型语言模型,专注于推理和对话任务,支持128K上下文长度,适配单张RTX显卡。
大型语言模型
Transformers
英语
L
nvidia
5,714
61
Falcon H1 34B Instruct
其他
Falcon-H1是由TII开发的高效混合架构语言模型,结合了Transformers和Mamba架构的优势,支持英语和多语言任务。
大型语言模型
Transformers
F
tiiuae
2,454
28
Falcon H1 34B Base
其他
Falcon-H1是由阿联酋技术创新研究院开发的混合架构语言模型,结合了Transformers和Mamba架构的优势,支持多语言处理。
大型语言模型
Transformers
支持多种语言
F
tiiuae
175
7
Helium 1 2b Q8 0 GGUF
这是一个基于kyutai/helium-1-2b转换的GGUF格式模型,支持多种欧洲语言。
大型语言模型
支持多种语言
H
NikolayKozloff
53
3
Bitnet B1.58 2B 4T GGUF
MIT
微软开发的1.58位量化大语言模型,专为高效推理设计,提供IQ2_BN和IQ2_BN_R4两种量化版本
大型语言模型
B
tdh111
1,058
4
GLM Z1 9B 0414 Q4 K M GGUF
MIT
本模型是THUDM/GLM-Z1-9B-0414的GGUF格式转换版本,支持中英文文本生成任务。
大型语言模型
支持多种语言
G
Aldaris
205
2
Open Thoughts OpenThinker2 7B GGUF
Apache-2.0
OpenThinker2-7B的量化版本,使用llama.cpp进行量化,适用于文本生成任务。
大型语言模型
O
bartowski
1,023
5
Nemotron H 8B Base 8K
其他
NVIDIA Nemotron-H-8B-Base-8K 是由 NVIDIA 开发的大型语言模型(LLM),旨在为给定文本片段生成补全内容。
大型语言模型
Transformers
支持多种语言
N
nvidia
5,437
38
Llama 3.1 Nemotron Nano 8B V1
其他
基于Meta Llama-3.1-8B-Instruct优化的推理与对话模型,支持128K上下文长度,平衡效率与性能
大型语言模型
Transformers
英语
L
nvidia
60.52k
145
Gemma 3 12b It Q5 K S GGUF
这是Google Gemma 3B模型的GGUF量化版本,适用于本地推理,支持文本生成任务。
大型语言模型
G
NikolayKozloff
16
1
Gemma 3 27b It Q4 K M GGUF
该模型是基于Google的Gemma 3 27B IT模型转换而来的GGUF格式版本,适用于本地推理。
大型语言模型
G
paultimothymooney
299
2
Bge Reranker V2 M3 Q8 0 GGUF
Apache-2.0
这是一个基于BAAI/bge-reranker-v2-m3模型转换的GGUF格式文本排序模型,支持多语言文本嵌入推理。
文本嵌入
其他
B
pqnet
54
0
Formatclassifier
FormatClassifier模型能根据网页URL和文本内容,将网络内容归类至24个类别。
文本分类
Transformers
其他
F
WebOrganizer
2,429
5
Topicclassifier
基于gte-base-en-v1.5微调的主题分类模型,可将网页内容分类至24个类别
文本分类
Transformers
其他
T
WebOrganizer
2,288
9
Plamo 2 8b
其他
PLaMo 2 8B是由Preferred Elements公司开发的80亿参数混合架构语言模型,支持英语和日语文本生成。
大型语言模型
Transformers
支持多种语言
P
pfnet
401
19
Plamo 2 1b
Apache-2.0
PLaMo 2 1B是由Preferred Elements公司开发的10亿参数模型,基于英文和日文数据集进行预训练,采用混合架构结合Mamba和滑动窗口注意力机制。
大型语言模型
Transformers
支持多种语言
P
pfnet
1,051
31
Deepseek R1 Distill Llama 70B GGUF
DeepSeek-R1-Distill-Llama-70B是DeepSeek团队基于Llama架构开发的70B参数大语言模型,通过蒸馏技术优化,支持高效推理和微调。
大型语言模型
英语
D
unsloth
11.51k
79
Modernbert Large Squad2 V0.1
Apache-2.0
基于ModernBERT-large在SQuAD 2.0数据集上微调的问答模型,支持长上下文处理
问答系统
Transformers
M
Praise2112
19
2
Ichigo Llama3.1 S Instruct V0.4 GGUF
Apache-2.0
基于Menlo/Ichigo-llama3.1-s-instruct-v0.4的静态量化模型,提供多种量化版本,适用于不同硬件需求。
大型语言模型
英语
I
mradermacher
369
1
Internlm2 5 1 8b
Apache-2.0
InternLM2.5是基于InternLM2架构的新一代模型,通过海量合成数据和自我迭代优化,在推理性能上取得显著提升。
大型语言模型
Transformers
I
internlm
67
24
Deepseek V2 Lite
DeepSeek-V2-Lite 是一款经济高效的专家混合(MoE)语言模型,总参数量16B,激活参数量2.4B,支持32k上下文长度。
大型语言模型
Transformers
D
ZZichen
20
1
Meta Llama 3 8B Instruct Function Calling Json Mode
该模型基于 meta-llama/Meta-Llama-3-8B-Instruct 进行了微调,专门用于函数调用和 JSON 模式。
大型语言模型
Transformers
英语
M
hiieu
188
75
Minicpm MoE 8x2B
MiniCPM-MoE-8x2B是一款基于Transformer架构的混合专家(MoE)语言模型,采用8个专家模块设计,每个token激活2个专家进行处理。
大型语言模型
Transformers
M
openbmb
6,377
41
Jamba V0.1
Apache-2.0
Jamba是最先进的混合SSM-Transformer大语言模型,结合了Mamba架构与Transformer优势,支持256K上下文长度,在吞吐量和性能上超越同规模模型。
大型语言模型
Transformers
J
ai21labs
6,247
1,181
Yarn Mistral 7B 128k AWQ
Apache-2.0
Yarn Mistral 7B 128K是一款针对长上下文优化的先进语言模型,通过YaRN扩展方法在长上下文数据上进一步预训练,支持128k令牌的上下文窗口。
大型语言模型
Transformers
英语
Y
TheBloke
483
72
Decilm 6b Instruct
其他
DeciLM 6B-指令模型是一款专为短格式指令跟随设计的英语语言模型,基于DeciLM 6B通过LoRA微调技术训练而成
大型语言模型
Transformers
英语
D
Deci
105
134
Whisper Telugu Medium
Apache-2.0
基于OpenAI Whisper-medium微调的泰卢固语语音识别模型,在多个公开泰卢固语ASR数据集上训练
语音识别
其他
W
vasista22
228
2