L3.3 GeneticLemonade Unleashed V3 70B
这是一个基于Llama 3.3的70B参数大语言模型,经过SFT+DPO微调,专注于角色驱动的对话和创意内容生成
大型语言模型
Transformers
L
zerofata
119
5
Echollama 1B
EchoLLaMA是一个多模态AI系统,能够将3D视觉数据转化为自然语音描述,同时支持通过语音输入进行交互对话。
图像生成文本
Transformers
E
AquaLabs
75
3
Qwen2.5 14B Dpo It Ties
基于Qwen2.5-14B模型通过TIES方法融合的增强版本,专注于指令跟随和对话优化
大型语言模型
Transformers
Q
mergekit-community
30
2
Chocolatine 2 14B Instruct V2.0.3
Apache-2.0
Chocolatine-2-14B-Instruct-v2.0.3 是一个基于 Qwen-2.5-14B 架构的大语言模型,经过 DPO 微调,专注于法语和英语任务,在法语 LLM 排行榜中表现优异。
大型语言模型
Transformers
支持多种语言
C
jpacifico
329
14
Gemma 2 9b Neogenesis Ita
基于VAGOsolutions/SauerkrautLM-gemma-2-9b-it微调的版本,优化了意大利语性能表现,支持8k上下文长度。
大型语言模型
Transformers
支持多种语言
G
anakin87
3,029
10
Tanuki 8B Dpo V1.0
Apache-2.0
Tanuki-8B是一个8B参数的日语大语言模型,经过SFT和DPO优化对话任务,由GENIAC松尾研究室开发
大型语言模型
Transformers
支持多种语言
T
weblab-GENIAC
1,143
41
Tanuki 8x8B Dpo V1.0
Apache-2.0
Tanuki-8x8B是从零开始预训练的大规模语言模型,通过SFT和DPO针对对话任务进行了优化
大型语言模型
Transformers
支持多种语言
T
weblab-GENIAC
217
38
Ko Gemma 2 9b It
Ko-Gemma-2-9B-IT是Gemma模型系列中的一款韩语对话模型,基于google/gemma-2-9b-it进行监督微调(SFT)和直接偏好优化(DPO)训练,专门针对韩语文本生成任务优化。
大型语言模型
Transformers
韩语
K
rtzr
3,467
87
Jamet 8B L3 MK.V Blackroot
Jamet-8B-L3-MK.V-Blackroot 是一个基于 Llama 3 的角色扮演和故事叙述模型,经过多次迭代和优化,特别适合创意写作和互动对话。
大型语言模型
Transformers
J
Hastagaras
32
21
Llama 3 Bophades V3 8B
其他
基于Llama-3-8b构建的DPO微调模型,专注于提升真实性和数学推理能力
大型语言模型
Transformers
L
nbeerbower
44
3
Calme 2.3 Llama3 70b
基于Meta-Llama-3-70B-Instruct模型通过DPO微调的大语言模型,在多项基准测试中表现优异
大型语言模型
Transformers
英语
C
MaziyarPanahi
31
4
Flammen21 Mistral 7B
Apache-2.0
基于Mistral 7B大语言模型,通过预训练模型合并并在Date-DPO-v2数据集上微调,擅长角色扮演、创意写作和通用智能任务。
大型语言模型
Transformers
F
flammenai
23
1
Neural 4 QA 7b
Apache-2.0
Neural-4-QA-7b 是一个基于多个7B参数规模模型合并的大语言模型,专注于问答任务,采用DARE-TIES合并方法优化性能。
大型语言模型
Transformers
N
Kukedlc
23
1
Noro Hermes 3x7B
Apache-2.0
Noro-Hermes-3x7B 是一个采用懒人融合工具包构建的混合专家模型(MoE),融合了三个7B参数的Mistral变体模型,具备智能助手、创意角色扮演和通用任务处理能力。
大型语言模型
Transformers
N
ThomasComics
16
1
Starchat2 15b V0.1
StarChat2是基于StarCoder2微调的160亿参数编程助手模型,擅长对话和代码生成任务
大型语言模型
Transformers
S
HuggingFaceH4
4,196
111
Zephyr 7b Gemma V0.1
其他
Zephyr 7B Gemma是基于google/gemma-7b微调的语言模型,使用直接偏好优化(DPO)在公开合成数据集上训练,旨在作为有用的助手。
大型语言模型
Transformers
Z
HuggingFaceH4
502
124
Eeve Dpo V3
Apache-2.0
基于EEVE-Korean-Instruct-10.8B-v1.0的韩语指令优化模型,采用直接偏好优化(DPO)方法训练
大型语言模型
Transformers
E
ENERGY-DRINK-LOVE
1,803
1
Minueza 32M Chat
Apache-2.0
Minueza-32M-Chat是一个拥有3200万参数的聊天模型,基于Felladrin/Minueza-32M-Base进行监督微调(SFT)和直接偏好优化(DPO)训练。
大型语言模型
Transformers
英语
M
Felladrin
77
9
Olmo 7B Instruct
Apache-2.0
OLMo 7B Instruct是基于Dolma数据集训练的开放语言模型,经过SFT和DPO优化,专为问答任务设计。
大型语言模型
Transformers
英语
O
allenai
365
53
EEVE Korean Instruct 10.8B V1.0
Apache-2.0
基于SOLAR-10.7B-v1.0的韩语词汇扩展版,经过DPO微调的大语言模型
大型语言模型
Transformers
E
yanolja
19.39k
154
Polka 1.1b Chat
MIT
首个专为本地运行设计的波兰语对话助手模型,基于TinyLlama-1.1B扩展波兰语分词器并进行预训练和DPO优化
大型语言模型
Transformers
其他
P
eryk-mazus
91
19
Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca
这是一个经过剪枝和DPO训练的7B参数规模的小型LLM,专为设备端用途优化
大型语言模型
Transformers
英语
B
alnrg2arg
18
2
Neuralhermes 2.5 Mistral 7B
Apache-2.0
NeuralHermes是基于OpenHermes-2.5-Mistral-7B模型,通过直接偏好优化(DPO)进一步微调而成的大语言模型,在多项基准测试中表现优异。
大型语言模型
Transformers
英语
N
mlabonne
215
154
Causallm 14B DPO Alpha GGUF
基于14B参数的因果语言模型,经过DPO优化训练,支持中英文文本生成任务
大型语言模型
支持多种语言
C
tastypear
2,238
85
Mini Synatra 7b 02
Mini_synatra_7b_02是由Minirecord公司基于maywell/Synatra-7B-v0.3-dpo模型微调的大语言模型,专注于文本生成任务。
大型语言模型
Transformers
M
Minirecord
1,804
4
14B
14B参数规模的因果语言模型,完全兼容Meta LLaMA 2架构,在多项基准测试中超越70B以下模型
大型语言模型
Transformers
支持多种语言
1
CausalLM
236
303