长文本推理
Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
一个基于llama.cpp量化的12B参数多语言大语言模型,支持角色扮演、故事创作及多领域专业任务
大型语言模型
P
bartowski
1,027
3
Dans PersonalityEngine V1.3.0 12b Q6 K GGUF
Apache-2.0
该模型是基于PocketDoc/Dans-PersonalityEngine-V1.3.0-12b转换的GGUF格式模型,支持多种语言和任务,适用于通用目的、角色扮演、故事创作等场景。
大型语言模型
Transformers
D
NikolayKozloff
165
2
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通过权重量化减少75%的磁盘和GPU内存需求,保持高性能。
大型语言模型
Transformers
Q
RedHatAI
379
2
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4B是通义千问系列最新40亿参数大语言模型,支持思维模式与非思维模式切换,在推理、多语言和智能体任务中表现优异。
大型语言模型
Transformers
Q
JunHowie
640
2
Qwen3 1.7B Q8 0 GGUF
Apache-2.0
Qwen3-1.7B-Q8_0-GGUF是基于Qwen/Qwen3-1.7B转换的GGUF格式模型,支持文本生成任务,具备多语言支持和高效的推理能力。
大型语言模型
Q
Triangle104
277
1
Qwen3 235B A22B
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供稠密模型与混合专家(MoE)模型的完整套件,在推理、指令遵循、智能体能力和多语言支持方面实现突破性进展。
大型语言模型
Transformers
Q
Qwen
159.10k
849
Qwen3 14B
Apache-2.0
Qwen3-14B是通义千问系列的最新大语言模型,具有148亿参数,支持思维与非思维模式切换,在推理、指令遵循和智能体能力方面表现优异。
大型语言模型
Transformers
Q
Qwen
297.02k
152
Qwen3 8B
Apache-2.0
Qwen3是通义千问系列大语言模型的最新8B参数版本,支持思维模式与非思维模式无缝切换,具备强大的推理、指令遵循和智能体能力。
大型语言模型
Transformers
Q
Qwen
550.09k
294
Qwen3 4B
Apache-2.0
Qwen3-4B是通义千问系列大模型的最新版本,提供40亿参数的语言模型,支持思维与非思维模式切换,具备强大的推理、指令遵循和多语言能力。
大型语言模型
Transformers
Q
Qwen
307.26k
195
Ring Lite Linear Preview
MIT
玲珑线性预览版是由InclusionAI开源发布的混合线性稀疏大语言模型,总参数量17.1B,激活参数量3.0B。
大型语言模型
支持多种语言
R
inclusionAI
25
8
360zhinao3 7B O1.5
Apache-2.0
360智脑3-7B-O1.5是奇虎360开源的长思维链模型,基于360智脑3-7B-Instruct微调,支持复杂推理任务。
大型语言模型
Transformers
支持多种语言
3
qihoo360
35
3
Gemma 3 12b It Q8 0 GGUF
该模型是从google/gemma-3-12b-it转换而来的GGUF格式模型,适用于llama.cpp框架。
大型语言模型
G
NikolayKozloff
89
1
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基于Qwen 2.5 14B架构设计的140亿参数模型,旨在增强推理能力,适用于通用推理和问答任务。
大型语言模型
Transformers
支持多种语言
S
prithivMLmods
158
1
Deepseek R1 AWQ
MIT
DeepSeek R1模型的AWQ量化版本,优化了float16溢出问题,支持高效推理部署
大型语言模型
Transformers
支持多种语言
D
cognitivecomputations
30.46k
77
Modernbert Large Nli
Apache-2.0
基于ModernBERT-large模型,通过多任务微调优化的自然语言推理模型,在零样本分类和NLI任务上表现优异。
大型语言模型
Transformers
支持多种语言
M
tasksource
61.52k
5
Deberta Small Long Nli
基于DeBERTa架构的小型零样本分类模型,专为长文本自然语言推理任务优化,已转换为ONNX格式适配Web端
文本分类
Transformers
D
onnx-community
19
1
Deberta Base Long Nli
Apache-2.0
基于DeBERTa-v3-base模型,上下文长度扩展至1280,并在tasksource数据集上进行了25万步的微调,专注于自然语言推理和零样本分类任务。
大型语言模型
Transformers
D
tasksource
541
23
Phi 3 Small 128k Instruct
MIT
Phi-3-Small-128K-Instruct是一个70亿参数的轻量级开源模型,专注于高质量与强推理能力,支持128K长上下文,在常识、语言理解、数学、代码等任务中表现优异。
大型语言模型
Transformers
其他
P
microsoft
7,194
176
Phi 3 Medium 128k Instruct
MIT
Phi-3-Medium-128K-Instruct是一个拥有140亿参数的轻量级开源模型,专注于高质量与强推理能力,支持128K上下文长度。
大型语言模型
Transformers
其他
P
microsoft
17.52k
381
Deberta Small Long Nli
Apache-2.0
基于DeBERTa-v3-small模型,扩展上下文长度至1680标记,在tasksource数据集上微调,适用于长文本自然语言推理任务
大型语言模型
Transformers
支持多种语言
D
tasksource
40.85k
42
Deberta V3 Base Mnli Fever Docnli Ling 2c
MIT
基于8个NLI数据集训练的DeBERTa-v3二分类模型,擅长文本蕴含判断
文本分类
Transformers
英语
D
MoritzLaurer
234
11