base_model: unsloth/Llama-3.2-11B-Vision-Instruct
tags:
- 文本生成推理
- transformers框架
- unsloth加速
- 多模态Llama
license: Apache-2.0协议
language:
- 英文
model-index:
- name: DocumentCogito
results:
- task:
type: 文本生成
name: 文本生成
dataset:
name: IFEval (零样本)
type: wis-k/instruction-following-eval
split: 训练集
args:
num_few_shot: 0
metrics:
- type: 指令级严格准确率与提示级严格准确率
value: 50.64
name: 平均准确率
source:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=Daemontatox%2FDocumentCogito
name: 开放大模型排行榜
- task:
type: 文本生成
name: 文本生成
dataset:
name: BBH (三样本)
type: SaylorTwift/bbh
split: 测试集
args:
num_few_shot: 3
metrics:
- type: 归一化准确率
value: 29.79
name: 标准化准确率
source:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=Daemontatox%2FDocumentCogito
name: 开放大模型排行榜
- task:
type: 文本生成
name: 文本生成
dataset:
name: 数学五级难度 (四样本)
type: lighteval/MATH-Hard
split: 测试集
args:
num_few_shot: 4
metrics:
- type: 精确匹配率
value: 16.24
name: 完全匹配率
source:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=Daemontatox%2FDocumentCogito
name: 开放大模型排行榜
- task:
type: 文本生成
name: 文本生成
dataset:
name: GPQA (零样本)
type: Idavidrein/gpqa
split: 训练集
args:
num_few_shot: 0
metrics:
- type: 归一化准确率
value: 8.84
name: 标准化准确率
source:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=Daemontatox%2FDocumentCogito
name: 开放大模型排行榜
- task:
type: 文本生成
name: 文本生成
dataset:
name: MuSR (零样本)
type: TAUR-Lab/MuSR
args:
num_few_shot: 0
metrics:
- type: 归一化准确率
value: 8.6
name: 标准化准确率
source:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=Daemontatox%2FDocumentCogito
name: 开放大模型排行榜
- task:
type: 文本生成
name: 文本生成
dataset:
name: MMLU专业版 (五样本)
type: TIGER-Lab/MMLU-Pro
config: 主配置
split: 测试集
args:
num_few_shot: 5
metrics:
- type: 准确率
value: 31.14
name: 准确率
source:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=Daemontatox%2FDocumentCogito
name: 开放大模型排行榜
unsloth/Llama-3.2-11B-Vision-Instruct (精调版)
模型概述
本模型基于unsloth/Llama-3.2-11B-Vision-Instruct
进行精调,针对视觉-语言任务优化并增强指令跟随能力。通过结合Unsloth框架与Hugging Face的TRL库,训练速度提升2倍,在保持高性能的同时实现高效训练。
关键信息
- 开发者: Daemontatox
- 基础模型:
unsloth/Llama-3.2-11B-Vision-Instruct
- 许可证: Apache-2.0
- 语言: 英语(
en
)
- 使用框架: Hugging Face Transformers、Unsloth及TRL
性能与应用场景
本模型适用于以下场景:
- 基于视觉的文本生成与描述任务
- 多模态环境下的指令跟随
- 具备增强推理能力的通用文本生成
特性
- 2倍训练加速: 采用Unsloth框架实现快速精调
- 多模态能力: 强化视觉-语言交互处理
- 指令优化: 专为提升指令理解与执行能力设计
使用指南
推理示例(Hugging Face Transformers)
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("Daemontatox/finetuned-llama-3.2-vision-instruct")
model = AutoModelForCausalLM.from_pretrained("Daemontatox/finetuned-llama-3.2-vision-instruct")
input_text = "描述这幅展示山脉日落的图片。"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
详细结果请访问[此处](https://huggingface.co/datasets/open-llm-leaderboard/Daemontatox__DocumentCogito-details)!
汇总结果请查看[此处](https://huggingface.co/datasets/open-llm-leaderboard/contents/viewer/default/train?q=Daemontatox%2FDocumentCogito&sort[column]=Average%20%E2%AC%86%EF%B8%8F&sort[direction]=desc)!
| 指标 | 值(%) |
|------------------|--------:|
|**平均值** | 24.21|
|IFEval (零样本) | 50.64|
|BBH (三样本) | 29.79|
|数学五级难度 (四样本)| 16.24|
|GPQA (零样本) | 8.84|
|MuSR (零样本) | 8.60|
|MMLU专业版 (五样本)| 31.14|