Pocketdoc Dans PersonalityEngine V1.3.0 12b GGUF
Apache-2.0
一个基于llama.cpp量化的12B参数多语言大语言模型,支持角色扮演、故事创作及多领域专业任务
大型语言模型
P
bartowski
1,027
3
Dans PersonalityEngine V1.3.0 12b Q6 K GGUF
Apache-2.0
该模型是基于PocketDoc/Dans-PersonalityEngine-V1.3.0-12b转换的GGUF格式模型,支持多种语言和任务,适用于通用目的、角色扮演、故事创作等场景。
大型语言模型
Transformers

D
NikolayKozloff
165
2
Qwen3 30B A3B Quantized.w4a16
Apache-2.0
Qwen3-30B-A3B的INT4量化版本,通过权重量化减少75%的磁盘和GPU内存需求,保持高性能。
大型语言模型
Transformers

Q
RedHatAI
379
2
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4B是通义千问系列最新40亿参数大语言模型,支持思维模式与非思维模式切换,在推理、多语言和智能体任务中表现优异。
大型语言模型
Transformers

Q
JunHowie
640
2
Qwen3 1.7B Q8 0 GGUF
Apache-2.0
Qwen3-1.7B-Q8_0-GGUF是基于Qwen/Qwen3-1.7B转换的GGUF格式模型,支持文本生成任务,具备多语言支持和高效的推理能力。
大型语言模型
Q
Triangle104
277
1
Qwen3 235B A22B
Apache-2.0
Qwen3是通义千问系列大语言模型的最新版本,提供稠密模型与混合专家(MoE)模型的完整套件,在推理、指令遵循、智能体能力和多语言支持方面实现突破性进展。
大型语言模型
Transformers

Q
Qwen
159.10k
849
Qwen3 14B
Apache-2.0
Qwen3-14B是通义千问系列的最新大语言模型,具有148亿参数,支持思维与非思维模式切换,在推理、指令遵循和智能体能力方面表现优异。
大型语言模型
Transformers

Q
Qwen
297.02k
152
Qwen3 8B
Apache-2.0
Qwen3是通义千问系列大语言模型的最新8B参数版本,支持思维模式与非思维模式无缝切换,具备强大的推理、指令遵循和智能体能力。
大型语言模型
Transformers

Q
Qwen
550.09k
294
Qwen3 4B
Apache-2.0
Qwen3-4B是通义千问系列大模型的最新版本,提供40亿参数的语言模型,支持思维与非思维模式切换,具备强大的推理、指令遵循和多语言能力。
大型语言模型
Transformers

Q
Qwen
307.26k
195
Ring Lite Linear Preview
MIT
玲珑线性预览版是由InclusionAI开源发布的混合线性稀疏大语言模型,总参数量17.1B,激活参数量3.0B。
大型语言模型
支持多种语言
R
inclusionAI
25
8
360zhinao3 7B O1.5
Apache-2.0
360智脑3-7B-O1.5是奇虎360开源的长思维链模型,基于360智脑3-7B-Instruct微调,支持复杂推理任务。
大型语言模型
Transformers

支持多种语言
3
qihoo360
35
3
Gemma 3 12b It Q8 0 GGUF
该模型是从google/gemma-3-12b-it转换而来的GGUF格式模型,适用于llama.cpp框架。
大型语言模型
G
NikolayKozloff
89
1
Serpens Opus 14B Exp
Apache-2.0
Serpens-Opus-14B-Exp是基于Qwen 2.5 14B架构设计的140亿参数模型,旨在增强推理能力,适用于通用推理和问答任务。
大型语言模型
Transformers

支持多种语言
S
prithivMLmods
158
1
Deepseek R1 AWQ
MIT
DeepSeek R1模型的AWQ量化版本,优化了float16溢出问题,支持高效推理部署
大型语言模型
Transformers

支持多种语言
D
cognitivecomputations
30.46k
77
Modernbert Large Nli
Apache-2.0
基于ModernBERT-large模型,通过多任务微调优化的自然语言推理模型,在零样本分类和NLI任务上表现优异。
大型语言模型
Transformers

支持多种语言
M
tasksource
61.52k
5
Deberta Small Long Nli
基于DeBERTa架构的小型零样本分类模型,专为长文本自然语言推理任务优化,已转换为ONNX格式适配Web端
文本分类
Transformers

D
onnx-community
19
1
Deberta Base Long Nli
Apache-2.0
基于DeBERTa-v3-base模型,上下文长度扩展至1280,并在tasksource数据集上进行了25万步的微调,专注于自然语言推理和零样本分类任务。
大型语言模型
Transformers

D
tasksource
541
23
Phi 3 Small 128k Instruct
MIT
Phi-3-Small-128K-Instruct是一个70亿参数的轻量级开源模型,专注于高质量与强推理能力,支持128K长上下文,在常识、语言理解、数学、代码等任务中表现优异。
大型语言模型
Transformers

其他
P
microsoft
7,194
176
Phi 3 Medium 128k Instruct
MIT
Phi-3-Medium-128K-Instruct是一个拥有140亿参数的轻量级开源模型,专注于高质量与强推理能力,支持128K上下文长度。
大型语言模型
Transformers

其他
P
microsoft
17.52k
381
Deberta Small Long Nli
Apache-2.0
基于DeBERTa-v3-small模型,扩展上下文长度至1680标记,在tasksource数据集上微调,适用于长文本自然语言推理任务
大型语言模型
Transformers

支持多种语言
D
tasksource
40.85k
42
Deberta V3 Base Mnli Fever Docnli Ling 2c
MIT
基于8个NLI数据集训练的DeBERTa-v3二分类模型,擅长文本蕴含判断
文本分类
Transformers

英语
D
MoritzLaurer
234
11
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文