Kiradepth V12 Sdxl
其他
KiraDepth 是一个基于稳定扩散XL的文本到图像生成模型,专注于生成具有深度、细节和阴影的2.25D/2.5D风格图像,特别适合动漫风格的创作。
图像生成
英语
K
John6666
113
1
Knowledgecore 12B
KnowledgeCore.12B 是一个通过 mergekit 工具合并的 12B 参数规模的大型语言模型,基于 PocketDoc/Dans-PersonalityEngine-V1.1.0-12b 和 inflatebot/MN-12
大型语言模型
Transformers

K
yamatazen
15
2
The True Abomination 24B
这是一个专注于角色扮演能力的24B参数语言模型,通过多种先进合并技术融合多个优秀模型而成,特别优化了传统推理能力和SillyTavern兼容性。
大型语言模型
Transformers

支持多种语言
T
Casual-Autopsy
34
2
Paxinium
这是一个使用mergekit工具合并的12B参数规模的大语言模型,融合了多个优秀模型的特性。
大型语言模型
Transformers

P
DreadPoor
28
1
Esotericknowledge 24B
这是一个24B参数规模的合并语言模型,采用TIES方法融合了多个24B规模的预训练模型,专注于提供高质量的文本生成和理解能力。
大型语言模型
Transformers

E
yamatazen
122
4
MT Gen1 Gemma 3 12B
这是一个使用mergekit工具合并的预训练语言模型,采用DARE TIES方法融合了多个Gemma3-12B变体模型。
大型语言模型
Transformers

M
zelk12
118
3
Magtie V1 12B
Apache-2.0
MagTie-v1-12B是一个基于DARE TIES算法合并的12B参数语言模型,融合了多个预训练模型的优势
大型语言模型
Transformers

M
grimjim
32
2
Aurora Borealis LLaMa 70B
这是一个基于LLaMa-70B架构的多模型融合实验项目,采用DARE TIES融合方法,结合了6个不同版本的MO-MODEL模型。
大型语言模型
Transformers

A
Tarek07
112
6
Comet 12B V.5
基于多个预训练语言模型的融合成果,V.5版本在稳定性和内容表现上有所提升
大型语言模型
Transformers

C
OddTheGreat
35
1
Magsoup V1 12B
这是一个通过mergekit工具融合多个12B参数规模语言模型的结果,以Magnolia-v3-12B为基础模型进行融合
大型语言模型
Transformers

M
grimjim
59
3
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
这是一个基于Qwen2.5-32B的合并模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特点,旨在提升性能。
大型语言模型
Transformers

Q
sm54
14
4
Godslayer 12B ABYSS
GodSlayer-12B-ABYSS 是一个通过 mergekit 合并多个预训练语言模型得到的12B参数模型,旨在保持稳定性和连贯性的同时,减少积极性偏见,提高现实主义和多样化响应能力。
大型语言模型
Transformers

G
redrix
78
12
Black Ink Guild Pernicious Prophecy 70B EmbedFix
这是基于多个70B参数模型的合并改进版本,主要调整了嵌入层尺寸以匹配标准L3 70B模型规格。
大型语言模型
Transformers

英语
B
Strangedove
78
2
Qwen2.5 The Wisemen QwQ Deep Tiny Sherlock 32B
Apache-2.0
基于QwQ-32B推理与思维模型,融合了多个顶级推理模型的特色,专注于减少提示中的'过度思考',适用于创意用例和深入推理。
大型语言模型
Transformers

其他
Q
DavidAU
763
4
Kaiden Sakura Violet Square Azura Crimson 12B
Apache-2.0
这是一个基于多个预训练语言模型合并的12B参数大语言模型,采用mergekit工具合并,适用于文本生成任务。
大型语言模型
Transformers

K
kainatq
81
2
Violet Lyra Gutenberg V4
这是一个基于多个高质量模型合并的混合模型,专注于中文文本生成和对话任务。
大型语言模型
Transformers

V
ohyeah1
13
2
MN Nyx Chthonia 12B
这是一个基于多个12B参数规模模型的合并版本,采用model_stock方法融合了7个不同特性的预训练语言模型,以增强综合能力。
大型语言模型
Transformers

M
mergekit-community
31
2
Llama 3 70b Arimas Story RP V1.6 3.5bpw H6 Exl2
基于Llama-3-70B的合并模型,专注于故事生成和角色扮演(RP)任务,通过breadcrumbs_ties方法合并多个高质量模型
大型语言模型
Transformers

L
kim512
21
1
Llama 3 70b Arimas Story RP V1.6 4.5bpw H6 Exl2
基于Llama 3 70B的合并模型,专为故事创作和角色扮演优化,支持长上下文窗口
大型语言模型
Transformers

L
kim512
17
1
Llama 3 70b Arimas Story RP V1.6 4.0bpw H6 Exl2
基于Llama 3 70B架构的合并模型,专为故事生成和角色扮演优化,支持长上下文窗口
大型语言模型
Transformers

L
kim512
20
1
Llama 3 Psychology LoRA Stock 8B
这是一个基于Llama-3架构的融合模型,专门用于心理健康治疗和心理医生对话场景,整合了多个心理健康领域的微调模型。
大型语言模型
Transformers

L
Cas-Warehouse
25
1
Llama 3 70b Arimas Story RP V1.6 3.0bpw H6 Exl2
这是Llama-3-70B模型的角色扮演和故事生成专用版本,经过多模型合并优化和EXL2量化处理
大型语言模型
Transformers

L
kim512
25
1
Abomimegadarkgasinalgottenevereamession
这是一个基于DARE TIES方法合并的12B参数语言模型,融合了多个预训练模型,旨在提供强大的文本生成能力。
大型语言模型
Transformers

A
ReadyArt
26
1
Elvenmaid 12B V2
ElvenMaid-12B-v2 是一个基于 ChatML 格式的 12B 参数语言模型,通过 mergekit 的 TIES 方法合并多个预训练模型而成,支持英文和日文交互。
大型语言模型
Transformers

支持多种语言
E
yamatazen
50
4
Cyberillustrious Cyberrealistic V35 Sdxl
其他
CyberIllustrious 是一个基于稳定扩散技术的文本生成图像模型,能够生成高质量、照片级写实的图像。
图像生成
英语
C
John6666
975
2
Anathema V14 LLaMa 70B
这是一个使用SCE合并方法整合多个70B参数Llama-3.1变体的高性能语言模型
大型语言模型
Transformers

A
TareksLab
17
2
Qwen2.5 Smooth Coder 14B Instruct
Apache-2.0
这是一个基于Qwen2.5-14B架构的多模型融合结果,采用Model Stock融合方法,结合了22个不同来源的14B参数规模模型。
大型语言模型
Transformers

Q
spacematt
38
2
Qwen2.5 CompositeFlow Coder 14B Instruct
Apache-2.0
基于Qwen2.5-Coder-14B-Instruct基础模型,通过mergekit工具合并多个专业编码模型的混合模型
大型语言模型
Transformers

Q
spacematt
31
3
MT2 Gen11 Gemma 2 9B
这是一个基于Gemma-2-9B系列模型通过DARE TIES方法融合的9B参数规模语言模型,融合了多个优化版本的Gemma模型。
大型语言模型
Transformers

M
zelk12
41
3
MT1 Gen11 Gemma 2 9B
这是一个使用mergekit和DARE TIES方法合并的预训练语言模型,基于多个Gemma-2-9B变体模型融合而成。
大型语言模型
Transformers

M
zelk12
29
2
YM 12B Model Stock
这是一个通过mergekit工具合并的12B参数规模的语言模型,基于EtherealAurora-12B-v2融合了多个优秀模型的特点
大型语言模型
Transformers

Y
DreadPoor
125
2
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super 是一个通过合并基础模型和微调模型优化的开源大语言模型,专注于提升指令跟随、数学和编码能力。
大型语言模型
Transformers

支持多种语言
Q
YOYO-AI
17
3
MT Gen10 Gemma 2 9B
这是一个基于Gemma-2-9B系列模型通过DARE TIES方法合并的多模型融合版本,整合了多个Gemma变体的优势。
大型语言模型
Transformers

M
zelk12
26
2
Community Request 04.20 12B
其他
这是一个由多个12B参数规模的模型合并而成的大语言模型,专注于文本生成和推理任务。
大型语言模型
Transformers

英语
C
Nitral-AI
94
4
Irix 12B Model Stock
这是一个使用mergekit工具通过模型库存方法合并多个12B参数规模语言模型的结果
大型语言模型
Transformers

I
DreadPoor
373
9
Legion V2.2 LLaMa 70B
使用 DARE TIES 方法合并的预训练语言模型,基于 L-BASE-V1 融合多个 MERGE 模型
大型语言模型
Transformers

L
TareksTesting
24
2
Community Request 02 12B
基于多个12B参数规模的大语言模型融合而成,具备文本生成和对话能力
大型语言模型
Transformers

C
Nitral-AI
53
4
Community Request 01 12B
基于多个Captain-Eris系列模型通过mergekit工具合并的预训练语言模型
大型语言模型
Transformers

C
Nitral-AI
19
3
YOYO O1 32B V2
融合了开源社区最顶尖的32B推理模型与代码模型,采用SCE合并技术以Qwen2.5-Coder-32B为基础模型进行融合。
大型语言模型
Transformers

Y
YOYO-AI
29
2
Loqwqtus2.5 32B Instruct
Apache-2.0
基于Qwen系列模型的标准化去噪傅里叶插值混合模型,以高质量回答和情感共鸣著称的思考型大语言模型
大型语言模型
Transformers

英语
L
maldv
77
2
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文