数据集:
- Lin-Chen/ShareGPT4V
管道标签: 图像转文本
MoMonir/llava-llama-3-8b-v1_1-GGUF
该模型是从 xtuner/llava-llama-3-8b-v1_1
转换为 GGUF 格式的。有关模型的更多详情,请参考原始模型卡片。
GGUF 是 llama.cpp 团队于 2023 年 8 月 21 日引入的新格式。它取代了 GGML,后者已不再受 llama.cpp 支持。
以下是已知支持 GGUF 的客户端和库的不完整列表:
- llama.cpp。GGUF 的源项目。提供 CLI 和服务器选项。
- text-generation-webui,最广泛使用的 Web UI,具有许多功能和强大的扩展。支持 GPU 加速。
- KoboldCpp,功能齐全的 Web UI,支持所有平台和 GPU 架构的 GPU 加速。特别适合故事讲述。
- GPT4All,免费开源的本地运行 GUI,支持 Windows、Linux 和 macOS,具有完整的 GPU 加速。
- LM Studio,易于使用且功能强大的本地 GUI,支持 Windows 和 macOS (Silicon),具有 GPU 加速。Linux 版本已于 2023 年 11 月 27 日进入测试阶段。
- LoLLMS Web UI,一个优秀的 Web UI,具有许多有趣且独特的功能,包括完整的模型库以便轻松选择模型。
- Faraday.dev,一个吸引人且易于使用的基于角色的聊天 GUI,支持 Windows 和 macOS(Silicon 和 Intel),具有 GPU 加速。
- llama-cpp-python,一个支持 GPU 加速、LangChain 支持和 OpenAI 兼容 API 服务器的 Python 库。
- candle,一个专注于性能的 Rust ML 框架,包括 GPU 支持和易用性。
- ctransformers,一个支持 GPU 加速、LangChain 支持和 OpenAI 兼容 AI 服务器的 Python 库。注意,截至撰写时(2023 年 11 月 27 日),ctransformers 已长时间未更新,不支持许多近期模型。
================================
#--# 原始模型卡片 #--#
================================
模型
llava-llama-3-8b-v1_1 是一个基于 meta-llama/Meta-Llama-3-8B-Instruct 和 CLIP-ViT-Large-patch14-336 微调的 LLaVA 模型,使用了 ShareGPT4V-PT 和 InternVL-SFT 数据集,由 XTuner 完成。
注意:此模型为 GGUF 格式。
资源:
详情
模型 |
视觉编码器 |
投影器 |
分辨率 |
预训练策略 |
微调策略 |
预训练数据集 |
微调数据集 |
LLaVA-v1.5-7B |
CLIP-L |
MLP |
336 |
冻结 LLM,冻结 ViT |
全量 LLM,冻结 ViT |
LLaVA-PT (558K) |
LLaVA-Mix (665K) |
LLaVA-Llama-3-8B |
CLIP-L |
MLP |
336 |
冻结 LLM,冻结 ViT |
全量 LLM,LoRA ViT |
LLaVA-PT (558K) |
LLaVA-Mix (665K) |
LLaVA-Llama-3-8B-v1.1 |
CLIP-L |
MLP |
336 |
冻结 LLM,冻结 ViT |
全量 LLM,LoRA ViT |
ShareGPT4V-PT (1246K) |
InternVL-SFT (1268K) |
结果
模型 |
MMBench 测试 (EN) |
MMBench 测试 (CN) |
CCBench 开发 |
MMMU 验证 |
SEED-IMG |
AI2D 测试 |
ScienceQA 测试 |
HallusionBench aAcc |
POPE |
GQA |
TextVQA |
MME |
MMStar |
LLaVA-v1.5-7B |
66.5 |
59.0 |
27.5 |
35.3 |
60.5 |
54.8 |
70.4 |
44.9 |
85.9 |
62.0 |
58.2 |
1511/348 |
30.3 |
LLaVA-Llama-3-8B |
68.9 |
61.6 |
30.4 |
36.8 |
69.8 |
60.9 |
73.3 |
47.3 |
87.2 |
63.5 |
58.0 |
1506/295 |
38.2 |
LLaVA-Llama-3-8B-v1.1 |
72.3 |
66.4 |
31.6 |
36.8 |
70.1 |
70.0 |
72.9 |
47.7 |
86.4 |
62.6 |
59.0 |
1469/349 |
45.1 |
快速开始
下载模型
wget https://huggingface.co/xtuner/llava-llama-3-8b-v1_1-gguf/resolve/main/llava-llama-3-8b-v1_1-mmproj-f16.gguf
wget https://huggingface.co/xtuner/llava-llama-3-8b-v1_1-gguf/resolve/main/llava-llama-3-8b-v1_1-f16.gguf
wget https://huggingface.co/xtuner/llava-llama-3-8b-v1_1-gguf/resolve/main/llava-llama-3-8b-v1_1-int4.gguf
wget https://huggingface.co/xtuner/llava-llama-3-8b-v1_1-gguf/resolve/main/OLLAMA_MODELFILE_F16
wget https://huggingface.co/xtuner/llava-llama-3-8b-v1_1-gguf/resolve/main/OLLAMA_MODELFILE_INT4
使用 ollama
聊天
ollama create llava-llama3-f16 -f ./OLLAMA_MODELFILE_F16
ollama run llava-llama3-f16 "xx.png 描述这张图片"
ollama create llava-llama3-int4 -f ./OLLAMA_MODELFILE_INT4
ollama run llava-llama3-int4 "xx.png 描述这张图片"
使用 llama.cpp
聊天
- 构建 llama.cpp (文档)。
- 构建
./llava-cli
(文档)。
注意:llava-llama-3-8b-v1_1 使用 Llama-3-instruct 聊天模板。
./llava-cli -m ./llava-llama-3-8b-v1_1-f16.gguf --mmproj ./llava-llama-3-8b-v1_1-mmproj-f16.gguf --image YOUR_IMAGE.jpg -c 4096 -e -p "<|start_header_id|>user<|end_header_id|>\n\n<image>\n描述这张图片<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n"
./llava-cli -m ./llava-llama-3-8b-v1_1-int4.gguf --mmproj ./llava-llama-3-8b-v1_1-mmproj-f16.gguf --image YOUR_IMAGE.jpg -c 4096 -e -p "<|start_header_id|>user<|end_header_id|>\n\n<image>\n描述这张图片<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n"
复现
请参考文档。
引用
@misc{2023xtuner,
title={XTuner: 高效微调 LLM 的工具包},
author={XTuner 贡献者},
howpublished = {\url{https://github.com/InternLM/xtuner}},
year={2023}
}