Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 是由 Kakao Corp 开发的一个 8B 参数规模的指令微调语言模型,适用于文本生成任务。
大型语言模型
K
DevQuasar
483
1
Mlabonne.qwen3 30B A3B Abliterated GGUF
Qwen3-30B-A3B-abliterated 是一个基于 Qwen 架构的 300 亿参数大型语言模型,专注于文本生成任务。
大型语言模型
M
DevQuasar
327
1
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-Instruct是由AllenAI开发的一个10亿参数规模的指令微调语言模型,专注于文本生成任务。
大型语言模型
A
DevQuasar
220
1
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RL 是一个基于未知数据集从头开始训练的7B参数规模的大语言模型,结合了检索增强生成(RAG)和强化学习(RL)技术。
大型语言模型
Transformers

Q
XXsongLALA
859
7
Gemma 3 1B It Qat GGUF
Google推出的轻量级开源大语言模型,适用于多种文本生成任务
大型语言模型
G
lmstudio-community
5,014
3
THUDM.GLM 4 32B 0414 GGUF
GLM-4-32B-0414是由THUDM开发的大规模语言模型,具有320亿参数,适用于多种文本生成任务。
大型语言模型
T
DevQuasar
13.15k
5
Salesforce.llama Xlam 2 70b Fc R GGUF
Llama-xLAM-2-70b-fc-r 是由 Salesforce 发布的大型语言模型,基于 Llama 2 架构,具有 700 亿参数。
大型语言模型
S
DevQuasar
238
1
YM 12B Model Stock
这是一个通过mergekit工具合并的12B参数规模的语言模型,基于EtherealAurora-12B-v2融合了多个优秀模型的特点
大型语言模型
Transformers

Y
DreadPoor
125
2
Reasonir 8B
ReasonIR-8B是首个专为通用推理任务训练的检索模型,在BRIGHT基准上实现了最先进的检索性能,并在RAG应用中显著提升了MMLU和GPQA基准的表现。
文本嵌入
Transformers

英语
R
reasonir
13.43k
39
Fanformer 1B
MIT
FANformer-1B是通过创新周期性机制增强语言建模能力的自回归模型,具有11亿非嵌入参数,训练token量达1万亿。
大型语言模型
Transformers

英语
F
dongyh
114
2
Gemma 3 27b It Abliterated Q4 K M GGUF
该模型是基于mlabonne/gemma-3-27b-it-abliterated转换的GGUF格式版本,适用于llama.cpp框架的推理任务。
大型语言模型
G
NovNovikov
341
3
Trillion 7B Preview
Apache-2.0
Trillion-7B预览版是一款多语言大型语言模型,支持英语、韩语、日语和中文,在保持较低计算量的同时实现了与更高计算量模型竞争的性能。
大型语言模型
Transformers

支持多种语言
T
trillionlabs
6,864
82
Gemma 3 12b It Q5 K S GGUF
这是Google Gemma 3B模型的GGUF量化版本,适用于本地推理,支持文本生成任务。
大型语言模型
G
NikolayKozloff
16
1
Gemma 3 12b It Q5 K M GGUF
这是由google/gemma-3-12b-it转换而来的GGUF格式模型,适用于llama.cpp框架。
大型语言模型
G
NikolayKozloff
46
1
Gemma 3 27b It Q4 K M GGUF
该模型是基于Google的Gemma 3 27B IT模型转换而来的GGUF格式版本,适用于本地推理。
大型语言模型
G
paultimothymooney
299
2
Google.gemma 3 4b It GGUF
Gemma 3.4B IT 是 Google 开发的一个 34 亿参数的大语言模型,专注于指令调优版本,适用于多种自然语言处理任务。
大型语言模型
G
DevQuasar
141
1
Llama 3.1 8b DodoWild V2.01
基于Llama 3.1架构的8B参数语言模型,通过mergekit合并多个模型而成,具备文本生成能力
大型语言模型
Transformers

L
Nexesenex
58
2
Huihui Ai.qwen2.5 14B Instruct 1M Abliterated GGUF
一个14B参数规模的大语言模型,专注于指令遵循任务,支持文本生成能力。
大型语言模型
H
DevQuasar
550
1
Allenai.llama 3.1 Tulu 3.1 8B GGUF
Llama-3.1-Tulu-3.1-8B是由AllenAI开发的大语言模型,基于Llama架构,具有80亿参数,专注于文本生成任务。
大型语言模型
A
DevQuasar
113
2
Deepseek R1 Distill Llama 70B GGUF
DeepSeek-R1-Distill-Llama-70B是DeepSeek团队基于Llama架构开发的70B参数大语言模型,通过蒸馏技术优化,支持高效推理和微调。
大型语言模型
英语
D
unsloth
11.51k
79
Wiroai Turkish Llm 9b
WiroAI开发的基于Gemma-2-9b的土耳其语大语言模型,专注于对话生成任务
大型语言模型
Transformers

其他
W
WiroAI
3,062
28
Sapie Gemma2 9B IT
基于Google Gemma-2-9b-it模型优化的韩语版本,由Saltware开发,适用于韩语自然语言处理任务。
大型语言模型
Transformers

韩语
S
hometax
171
4
Nanolm 1B Instruct V1.1
Gpl-3.0
NanoLM-1B-Instruct-v1.1是一个10亿参数规模的小型指令微调语言模型,支持多领域英文文本生成任务。
大型语言模型
支持多种语言
N
Mxode
24
1
Jais Family 30b 16k Chat
Apache-2.0
Jais系列是专为阿拉伯语优化的双语大语言模型,同时具备强大的英语能力。
大型语言模型
支持多种语言
J
inceptionai
59
12
Llama 3 Stinky V2 8B
其他
这是一个基于Llama-3架构的8B参数模型,通过mergekit工具合并了多个预训练模型,具有较好的文本生成能力。
大型语言模型
Transformers

L
nbeerbower
39
5
360zhinao 7B Base
Apache-2.0
360智脑是由奇虎360开发的开源大语言模型系列,包含基础模型和多种上下文长度的对话模型,支持中文和英文。
大型语言模型
Transformers

支持多种语言
3
qihoo360
90
5
Strangemerges 53 7B Model Stock
Apache-2.0
StrangeMerges_53-7B-model_stock 是使用 LazyMergekit 合并多个7B参数规模模型的结果,具有强大的文本生成能力。
大型语言模型
Transformers

S
Gille
18
1
Jambatypus V0.1
Apache-2.0
基于Jamba-v0.1在Open-Platypus-Chat数据集上通过QLoRA微调的大语言模型,支持对话任务
大型语言模型
Transformers

英语
J
mlabonne
21
39
Nano Mistral
Apache-2.0
基于Mistral架构的大语言模型,使用Pile数据集训练,支持英语文本处理
大型语言模型
Transformers

英语
N
crumb
1,855
6
Openhercules 2.5 Mistral 7B AWQ
Apache-2.0
OpenHercules-2.5-Mistral-7B 是一个基于 Mistral-7B 架构的融合模型,结合了 Hercules-2.5-Mistral-7B 和 OpenHermes-2.5-Mistral-7B 的优势,适用于文本生成
大型语言模型
Transformers

英语
O
solidrust
30
1
Swallow MX 8x7b NVE V0.1
Apache-2.0
Swallow-MX-8x7b-NVE-v0.1是基于Mixtral-8x7B-Instruct-v0.1进行持续预训练的混合专家模型,主要增强了日语能力。
大型语言模型
Transformers

支持多种语言
S
tokyotech-llm
1,293
29
Pasta Lake 7b
其他
Pasta-Lake-7b 是一个通过合并 Test157t/Pasta-PrimaMaid-7b 和 macadeliccc/WestLake-7B-v2-laser-truthy-dpo 两个模型而创建的7B参数规模的语言模型。
大型语言模型
Transformers

P
Nitral-Archive
93
6
Tinymistral 6x248M
Apache-2.0
TinyMistral-6x248M是通过LazyMergekit工具融合6个TinyMistral变体的混合专家系统,在nampdn-ai/mini-peS2o数据集上进行了预训练
大型语言模型
Transformers

T
M4-ai
51
14
Darebeagle 7B
Apache-2.0
DareBeagle-7B是通过LazyMergekit合并mlabonne/NeuralBeagle14-7B和mlabonne/NeuralDaredevil-7B得到的7B参数大语言模型,在多个基准测试中表现优异。
大型语言模型
Transformers

D
shadowml
77
1
Velara 11B V2 GGUF
Velara 11B v2 是一个基于Mistral架构的大型语言模型,专注于文本生成任务,采用Alpaca-InstructOnly2提示模板。
大型语言模型
英语
V
TheBloke
1,047
9
Norocetacean 20B 10k GGUF
其他
Norocetacean 20B 10K 是一个基于 Llama 2 架构的大型语言模型,经过微调以支持中文任务。
大型语言模型
N
TheBloke
3,364
6
Openhermes 2 Mistral 7B
Apache-2.0
OpenHermes 2 Mistral 7B 是基于 Mistral-7B 微调的先进语言模型,主要使用 GPT-4 生成的合成数据进行训练,擅长对话和指令跟随任务。
大型语言模型
Transformers

英语
O
teknium
5,740
256
Sheared LLaMA 1.3B
Apache-2.0
Sheared-LLaMA-1.3B是基于LLaMA-2-7B通过结构化剪枝和持续预训练得到的高效语言模型
大型语言模型
Transformers

S
princeton-nlp
11.09k
94
Bert Finetuned On Nq Short
一个在完整Natural Questions(NQ)数据集上训练的开放领域问答模型,能够回答各种事实性问题
大型语言模型
Transformers

B
eibakke
13
1
Distilbert Mlm Best
DistilBERT是BERT的轻量级蒸馏版本,保留了BERT 97%的性能,同时体积缩小40%,速度提升60%。
大型语言模型
Transformers

D
vocab-transformers
26
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文