Arliai QwQ 32B ArliAI RpR V4 GGUF
Apache-2.0
32B参数规模的量化大语言模型,基于ArliAI/QwQ-32B-ArliAI-RpR-v4模型,使用llama.cpp进行多种精度量化,适用于文本生成任务。
大型语言模型
英语
A
bartowski
1,721
1
Thedrummer Valkyrie 49B V1 GGUF
Valkyrie-49B-v1是基于llama.cpp的49B参数大语言模型,提供多种量化版本,适用于不同硬件配置。
大型语言模型
T
bartowski
64.03k
9
Thedrummer Rivermind Lux 12B V1 GGUF
这是一个12B参数的大语言模型,经过llama.cpp的imatrix量化处理,提供多种量化版本以适应不同硬件需求。
大型语言模型
T
bartowski
1,353
1
INTELLECT 2 GGUF
Apache-2.0
INTELLECT 2是由PrimeIntellect推出的大语言模型,支持40960 tokens的上下文长度,采用QwQ架构和GRPO强化学习框架训练。
大型语言模型
I
lmstudio-community
467
5
Wanabi 24b V1 GGUF
Apache-2.0
专为日语小说创作支持而微调的大规模语言模型
大型语言模型
日语
W
kawaimasa
274
2
Open Thoughts OpenThinker2 32B GGUF
Apache-2.0
OpenThinker2-32B的量化版本,使用llama.cpp进行imatrix量化,支持多种量化类型,适用于文本生成任务。
大型语言模型
O
bartowski
1,332
10
Loyalmaid 12B
LoyalMaid-12B 是一个通过 mergekit 工具融合多个预训练语言模型得到的12B参数规模的大语言模型。
大型语言模型
Transformers

L
yamatazen
83
5
ABEJA QwQ32b Reasoning Japanese V1.0
Apache-2.0
基于Qwen2.5-32B-Instruct开发的日语推理模型,融合了QwQ-32B的ChatVector,优化了日语推理性能。
大型语言模型
Transformers

日语
A
abeja
583
10
Community Request 02 12B
基于多个12B参数规模的大语言模型融合而成,具备文本生成和对话能力
大型语言模型
Transformers

C
Nitral-AI
53
4
Mistral Small 3.1 24B Instruct 2503 HF Imat GGUF
Apache-2.0
基于Mistral架构的24B参数指令微调模型,适用于文本生成任务
大型语言模型
M
qwp4w3hyb
2,573
3
Gemma 3 27b It Abliterated Q8 0 GGUF
这是一个基于mlabonne/gemma-3-27b-it-abliterated转换的GGUF格式模型,适用于llama.cpp框架。
大型语言模型
G
KnutJaegersberg
196
2
Thedrummer Cydonia 24B V2.1 GGUF
其他
Cydonia-24B-v2.1是一个24B参数的大语言模型,经过llama.cpp的imatrix量化处理,提供多种量化版本以适应不同硬件需求。
大型语言模型
T
bartowski
4,417
7
QWQ Stock
基于多个Qwen系列32B参数模型的融合模型,采用Model Stock方法融合,增强多语言处理能力
大型语言模型
Transformers

Q
wanlige
368
7
Lamarckvergence 14B
Apache-2.0
Lamarckvergence-14B 是一个通过 mergekit 合并的预训练语言模型,由 Lamarck-14B-v0.7 和 Qwenvergence-14B-v12-Prose-DS 合并而成。
大型语言模型
Transformers

英语
L
suayptalha
15.36k
24
Nera Noctis 12B GGUF
其他
Nera_Noctis-12B的Llamacpp imatrix量化版本,基于Nitral-AI/Nera_Noctis-12B模型,支持英文文本生成任务。
大型语言模型
英语
N
bartowski
64
6
72B Qwen2.5 Kunou V1 GGUF
其他
基于Qwen2.5-72B-Instruct的量化版本,采用llama.cpp进行多种量化处理,适用于本地推理
大型语言模型
7
bartowski
319
4
Calme 3.2 Instruct 78b
其他
calme-3.2-instruct-78b是基于Qwen2.5-72B的高级迭代版本,通过自我合并和微调增强能力的通用领域大语言模型。
大型语言模型
Transformers

英语
C
MaziyarPanahi
2,212
127
Meta Llama 3.1 70B Instruct FP8
Meta-Llama-3.1-70B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别适合类似助手的聊天场景。
大型语言模型
Transformers

支持多种语言
M
RedHatAI
71.73k
45
Florence 2 SD3 Captioner
Apache-2.0
Florence-2-SD3-Captioner 是一个基于 Florence-2 架构的图像描述生成模型,专门用于生成高质量的图像描述文本。
图像生成文本
Transformers

支持多种语言
F
gokaygokay
80.06k
34
L3 SnowStorm V1.15 4x8B B
实验性角色扮演导向的混合专家模型,目标是打造在角色扮演/情感角色扮演任务中表现不逊于或优于Mixtral 8x7B及其微调版本的模型。
大型语言模型
Transformers

英语
L
xxx777xxxASD
26
11
Meta Llama 3 70B Fp8
其他
Meta Llama 3 70B是由Meta开发的大语言模型,具有700亿参数,支持8k上下文长度,适用于英语的商业和研究用途。
大型语言模型
Transformers

英语
M
FriendliAI
34
5
Bielik 7B Instruct V0.1
Bielik-7B-Instruct-v0.1是基于Bielik-7B-v0.1进行指令微调的波兰语大语言模型,由SpeakLeash团队与ACK Cyfronet AGH合作开发,专注于波兰语理解和处理任务。
大型语言模型
Transformers

其他
B
speakleash
656
57
Matter 0.1 7B Boost GGUF
Apache-2.0
Matter 7B是基于Mistral 7B微调的模型,专为文本生成任务设计,支持对话式交互和函数调用。
大型语言模型
英语
M
munish0838
170
1
Mistral Evolved 11b V0.1 GGUF
Apache-2.0
Mistral-Evolved-11b-v0.1的量化版本,使用llama.cpp进行量化,提供多种量化选项以适应不同需求。
大型语言模型
M
bartowski
1,761
7
Kunoichi DPO V2 7B GGUF Imatrix
基于Mistral架构的7B参数大语言模型,采用DPO(直接偏好优化)训练,在多项基准测试中表现优异
大型语言模型
K
Lewdiculous
3,705
39
UNA SimpleSmaug 34b V1beta
Apache-2.0
基于Smaug-34B的监督微调模型,专注于提升数学和推理能力,在34B规模模型中表现优异。
大型语言模型
Transformers

U
fblgit
18
21
Quartetanemoi 70B T0.0001
其他
QuartetAnemoi-70B-t0.0001是一个70B参数的大语言模型,通过自定义NearSwap算法合并了多个优秀模型,擅长故事讲述且避免使用陈词滥调。
大型语言模型
Transformers

Q
alchemonaut
16
37
Daringmaid 20B V1.1 GGUF
无畏女仆-20B-V1.1是基于DaringMaid-20B的升级版本,主要更新是将Noromaid-13b从v0.1.1替换为v0.3版本,并略微提高了Noromaid的权重,以确保更好的兼容性。
大型语言模型
英语
D
Kooten
190
5
Daringmaid 20B
无畏女仆-20B是一个基于多个优秀模型融合的文本生成模型,目标是打造更聪明、更擅长遵循指令的Noromaid模型。
大型语言模型
Transformers

英语
D
Kooten
163
14
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文