指令跟随
Glm 4 9b Chat Abliterated GGUF
其他
基于GLM-4架构的9B参数聊天模型,支持中英文对话,经过量化处理适用于不同硬件环境
大型语言模型
支持多种语言
G
bartowski
2,676
11
Hyperclovax SEED Text Instruct 0.5B
其他
一款具备指令跟随能力的韩语优化文本生成模型,轻量级设计适合边缘设备部署
大型语言模型
Transformers
H
naver-hyperclovax
7,531
60
Gemma 3 4b Persian V0
Apache-2.0
基于Gemma 3架构的波斯语专用模型,采用QLoRA进行4位量化,专注于波斯语文本生成与理解
大型语言模型
其他
G
mshojaei77
542
9
Glm Edge 1.5b Chat
其他
GLM-Edge-1.5B-Chat 是一个基于 GLM 架构的 15 亿参数规模的聊天模型,适用于中文对话场景。
大型语言模型
Safetensors
G
THUDM
891
17
Llava NeXT Video 7B DPO Hf
LLaVA-NeXT-Video是一个开源多模态聊天机器人,通过视频和图像数据混合训练优化,具备优秀的视频理解能力。
视频生成文本
Transformers
英语
L
llava-hf
12.61k
9
Llava NeXT Video 7B Hf
LLaVA-NeXT-Video是一个开源多模态聊天机器人,通过视频和图像数据混合训练获得优秀的视频理解能力,在VideoMME基准上达到开源模型SOTA水平。
文本生成视频
Transformers
英语
L
llava-hf
65.95k
88
Persianllama 13B
波斯语首个开创性的大语言模型,拥有130亿参数,基于波斯语维基百科语料库训练,专为多种自然语言处理任务设计。
大型语言模型
Transformers
其他
P
ViraIntelligentDataMining
3,291
11
Llava Llama 3 8b
其他
基于LLaVA-v1.5框架训练的大型多模态模型,采用80亿参数的Meta-Llama-3-8B-Instruct作为语言主干,并配备基于CLIP的视觉编码器。
图像生成文本
Transformers
L
Intel
387
14
Llava Meta Llama 3 8B Instruct
基于Meta-Llama-3-8B-Instruct和LLaVA-v1.5整合的多模态模型,提供先进的视觉-语言理解能力
图像生成文本
Transformers
L
MBZUAI
20
11
Llava NeXT Video 7B DPO
LLaVA-Next-Video 是一个开源的多模态对话模型,通过对大语言模型进行多模态指令跟随数据的微调训练而成,支持视频和文本的多模态交互。
文本生成视频
Transformers
L
lmms-lab
8,049
27
Llava NeXT Video 7B
LLaVA-Next-Video 是一款开源的多模态对话机器人,通过大语言模型微调训练而成,支持视频和文本的多模态交互。
文本生成视频
Transformers
L
lmms-lab
1,146
46
Llava Gemma 7b
LLaVA-Gemma-7b是基于LLaVA-v1.5框架训练的大型多模态模型,采用google/gemma-7b-it作为语言主干,结合CLIP视觉编码器,适用于多模态理解和生成任务。
图像生成文本
Transformers
英语
L
Intel
161
11
Llava Gemma 2b
LLaVA-Gemma-2b是基于LLaVA-v1.5框架训练的大型多模态模型,采用20亿参数的Gemma-2b-it作为语言主干,结合CLIP视觉编码器。
图像生成文本
Transformers
英语
L
Intel
1,503
44
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-Chat是基于MobiLlama-1B微调的指令跟随模型,专为资源受限设备设计,强调高效、低内存占用和快速响应。
大型语言模型
Transformers
英语
M
MBZUAI
44
25
Llava V1.6 Vicuna 13b Gguf
Apache-2.0
LLaVA是基于Transformer架构的开源多模态聊天机器人,通过量化技术提供多种体积与质量平衡的模型版本。
图像生成文本
L
cjpais
630
9
Llava V1.6 Vicuna 7b Gguf
Apache-2.0
LLaVA是一个开源的多模态聊天机器人,通过在多模态指令跟随数据上微调LLM训练而成。
文本生成图像
L
cjpais
493
5
Llava V1.5 7b Gguf
LLaVA 是一个开源多模态聊天机器人,通过对 LLaMA/Vicuna 进行微调,基于 GPT 生成的多模态指令跟随数据训练而成。
图像生成文本
L
granddad
13
0
Llava 1.6 Mistral 7b Gguf
Apache-2.0
LLaVA是一个开源的多模态聊天机器人,通过在多模态指令跟随数据上微调LLM训练而成。
文本生成图像
L
cjpais
9,652
106
Llava V1.6 Vicuna 13b
LLaVA 是一个开源的多模态聊天机器人,通过对多模态指令跟随数据进行大型语言模型微调训练而成。
图像生成文本
Transformers
L
liuhaotian
7,080
56
Llava V1.6 Mistral 7b
Apache-2.0
LLaVA 是一个开源的多模态聊天机器人,通过在多模态指令跟随数据上微调大语言模型训练而成。
文本生成图像
Transformers
L
liuhaotian
27.45k
236
Fialka 13B V4
Apache-2.0
紫罗兰系列语言模型专为遵循指令和维持俄语对话而训练,第四代通过RLHF优化,具有更强的响应能力和更丰富的信息量。
大型语言模型
Transformers
其他
F
0x7o
95
5
Boana 7b Instruct
Boana-7B-Instruct是一个基于LLaMA2-7B的葡萄牙语指令微调模型,专为葡萄牙语用户设计,提供较低复杂度的LLM选项。
大型语言模型
Transformers
其他
B
lrds-code
24
5
Openchat 3.5 0106 GGUF
Apache-2.0
Openchat 3.5 0106 是一个基于Mistral架构的开源对话模型,由OpenChat团队开发。
大型语言模型
O
TheBloke
4,268
72
Liuhaotian Llava V1.5 13b GGUF
LLaVA 是一个开源多模态聊天机器人,基于LLaMA/Vicuna架构,通过多模态指令跟随数据微调训练而成。
文本生成图像
L
PsiPi
1,225
36
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7B是基于Mistral架构的7B参数大语言模型,由OpenChat团队开发,采用Apache 2.0许可证发布。
大型语言模型
Transformers
O
TheBloke
107
17
Llava V1.5 13b Lora
LLaVA 是一个开源的多模态聊天机器人,通过对 LLaMA/Vicuna 进行微调,并基于 GPT 生成的多模态指令跟随数据训练而成。
文本生成图像
Transformers
L
liuhaotian
143
26
Llava V1.5 7b Lora
LLaVA是一个开源多模态聊天机器人,基于LLaMA/Vicuna模型在GPT生成的多模态指令数据上微调训练而成。
文本生成图像
Transformers
L
liuhaotian
413
23
Selfrag Llama2 7b
MIT
一个70亿参数的Self-RAG模型,能够针对多样化用户查询生成输出结果,并自适应地调用检索系统、自我批判输出内容和检索段落,同时生成反思标记。
大型语言模型
Transformers
S
selfrag
1,318
78
Llava V1.5 13B AWQ
LLaVA是一个开源的多模态聊天机器人,通过微调LLaMA/Vicuna在GPT生成的多模态指令跟随数据上进行训练。
文本生成图像
Transformers
L
TheBloke
141
35
Longalpaca 70B
LongLoRA是一种高效微调长上下文大语言模型的技术,通过移位短注意力机制实现长上下文处理,支持8k到100k的上下文长度。
大型语言模型
Transformers
L
Yukang
1,293
21
Llava V1.5 13b
LLaVA 是一个开源多模态聊天机器人,基于 LLaMA/Vicuna 微调并整合视觉能力,支持图像和文本的交互。
文本生成图像
Transformers
L
liuhaotian
98.17k
499
Mentallama Chat 13B
MIT
首个具备指令跟随能力的可解释心理健康分析开源大语言模型
大型语言模型
Transformers
英语
M
klyang
326
17
Mentallama Chat 7B
MIT
首个具备指令跟随能力的可解释心理健康分析开源大语言模型,基于LLaMA2-chat-7B微调
大型语言模型
Transformers
英语
M
klyang
3,336
23
Synthia 70B V1.2b
SynthIA(合成智能代理)是基于Orca风格数据集训练的LLama-2-70B模型,擅长遵循指令及进行长对话。
大型语言模型
Transformers
英语
S
migtissera
136
29
Llama 2 70b Fb16 Korean
基于Llama2 70B模型在韩语数据集上微调的版本,专注于韩语和英语的文本生成任务
大型语言模型
Transformers
支持多种语言
L
quantumaikr
127
37
Stable Vicuna 13B GPTQ
StableVicuna-13B是基于Vicuna-13B v0模型,通过RLHF进行微调的对话模型,采用4位GPTQ量化格式
大型语言模型
Transformers
英语
S
TheBloke
49
219
Stable Vicuna 13b Delta
StableVicuna-13B是基于Vicuna-13B v0模型,通过人类反馈强化学习(RLHF)和近端策略优化(PPO)在多种对话和指令数据集上进行微调的产物。
大型语言模型
Transformers
英语
S
CarperAI
31
455
Godot Dodo 4x 60k Llama 7b
基于LLaMA-7B微调的指令跟随模型,专门针对代码指令场景优化
大型语言模型
Transformers
G
minosu
39
4