🚀 上传的模型
本模型由Anukul开发,基于unsloth/Llama-3.2-11B-Vision-Instruct
模型进行微调,使用的数据集为unsloth/radiology_mini
。该模型旨在辅助解读X光、CT扫描和MRI等放射学图像,还能提供初步的疾病识别,以支持医疗专业人员。
🚀 快速开始
模型概述
此模型专为辅助解读放射学图像(如X光、CT扫描和MRI)而设计,还能提供初步的疾病识别,为医疗专业人员提供支持。它是对unsloth/Llama-3.2-11B-Vision-Instruct
模型进行微调,以完成放射学图像字幕任务。该模型经过优化,速度比之前的版本快两倍,可实现高效微调。
数据集描述
本项目使用的数据集是unsloth/radiology_mini
,这是一个从ROCOv2 - 放射学数据集中提取的小规模数据集。它包括训练集和测试集,该数据集占Hugging Face上ROCOv2 - 放射学原始数据集的0.33%。
许可证
本模型使用的许可证为Apache - 2.0。
标签信息
属性 |
详情 |
标签 |
text - generation - inference、transformers、unsloth、mllama |
模型类型 |
基于unsloth/Llama-3.2-11B-Vision-Instruct 微调的放射学图像解读模型 |
训练数据 |
unsloth/Radiology_mini |
基础模型 |
unsloth/Llama-3.2-11B-Vision-Instruct |
库名称 |
transformers |
💻 使用示例
基础用法
from unsloth import FastVisionModel
from PIL import Image
import numpy as np
import torch
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model, tokenizer = FastVisionModel.from_pretrained(
"0llheaven/Llama-3.2-11B-Vision-Radiology-mini",
load_in_4bit=True,
use_gradient_checkpointing="unsloth",
)
FastVisionModel.for_inference(model)
model.to(device)
def predict_radiology_description(image, instruction):
try:
messages = [{"role": "user", "content": [
{"type": "image"},
{"type": "text", "text": instruction}
]}]
input_text = tokenizer.apply_chat_template(messages, add_generation_prompt=True)
inputs = tokenizer(
image,
input_text,
add_special_tokens=False,
return_tensors="pt",
).to(device)
output_ids = model.generate(
**inputs,
max_new_tokens=256,
temperature=1.5,
min_p=0.1
)
generated_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
return generated_text.replace("assistant", "\n\nassistant").strip()
except Exception as e:
return f"Error: {str(e)}"
image_path = 'example_image.jpeg'
instruction = 'You are an expert radiographer. Describe accurately what you see in this image.'
image = Image.open(image_path).convert("RGB")
output = predict_radiology_description(image, instruction)
print(output)