许可证:其他
许可证名称:健康AI开发者基础条款
许可证链接:https://developers.google.com/health-ai-developer-foundations/terms
库名称:transformers
流水线标签:文本生成
额外授权标题:在Hugging Face上访问MedGemma
额外授权提示:
要在Hugging Face上访问MedGemma,您需要审阅并同意健康AI开发者基础使用条款。请确保您已登录Hugging Face并点击下方按钮。请求将立即处理。
额外授权按钮内容:确认许可证
基础模型:google/gemma-3-27b-pt
标签:
MedGemma模型卡
模型文档:MedGemma
资源:
作者:Google
模型信息
本节介绍MedGemma模型及其使用方法。
描述
MedGemma是一系列针对医学文本和图像理解优化的Gemma 3变体。开发者可利用MedGemma加速构建医疗AI应用。当前提供两个版本:40亿参数的多模态版本和270亿参数的纯文本版本。
MedGemma 27B专为医学文本训练并优化推理效率,仅提供指令调优版本。
MedGemma变体已在多项临床相关基准测试中评估,涵盖公开数据集和定制数据集。开发者可通过微调进一步提升性能,详见“预期用途”部分。
完整技术报告即将发布。
使用方法
以下代码片段帮助您在GPU上快速运行模型。如需大规模使用,建议通过Model Garden创建生产版本。
首先安装Transformers库(Gemma 3需4.50.0及以上版本):
pip install -U transformers
使用pipeline
API运行模型
from transformers import pipeline
import torch
pipe = pipeline(
"text-generation",
model="google/medgemma-27b-text-it",
torch_dtype=torch.bfloat16,
device="cuda",
)
messages = [
{"role": "system", "content": "您是一位专业的医疗助手。"},
{"role": "user", "content": "如何区分细菌性肺炎和病毒性肺炎?"}
]
output = pipe(text=messages, max_new_tokens=200)
print(output[0]["generated_text"][-1]["content"])
直接运行模型
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "google/medgemma-27b-text-it"
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
tokenizer = AutoTokenizer.from_pretrained(model_id)
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_tensors="pt"
).to(model.device)
with torch.inference_mode():
generation = model.generate(**inputs, max_new_tokens=200)
decoded = tokenizer.decode(generation[0][inputs["input_ids"].shape[-1]:], skip_special_tokens=True)
print(decoded)
示例
参考以下Colab笔记本:
模型架构
基于Gemma 3的解码器Transformer架构,详见Gemma 3模型卡。
技术规格
- 模型类型:解码器Transformer(参见Gemma 3技术报告)
- 模态:4B:文本+视觉;27B:仅文本
- 注意力机制:分组查询注意力(GQA)
- 上下文长度:支持至少128K tokens
- 关键论文:即将发布
- 创建日期:2025年5月20日
- 版本:1.0.0
引用
技术报告即将发布,暂可引用Hugging Face模型页:
@misc{medgemma-hf,
author = {Google},
title = {MedGemma Hugging Face},
howpublished = {\url{https://huggingface.co/collections/google/medgemma-release-680aade845f90bec6a3f60c4}},
year = {2025},
note = {访问日期:[例如2025-05-20]}
}
输入输出
输入:
- 文本字符串(如问题或提示)
- 最大128K tokens
输出:
- 生成文本(如答案、图像分析或文档摘要)
- 最大8192 tokens
性能验证
MedGemma在多模态分类、报告生成、视觉问答和文本任务中评估。
文本评估
MedGemma在所有测试的医疗文本基准上均优于基础Gemma模型:
指标 |
MedGemma 27B |
Gemma 3 27B |
MedGemma 4B |
Gemma 3 4B |
MedQA (4选1) |
89.8 (5次最优) 87.7 (0样本) |
74.9 |
64.4 |
50.7 |
MedMCQA |
74.2 |
62.6 |
55.7 |
45.4 |
PubMedQA |
76.8 |
73.4 |
73.4 |
68.4 |
(注:MedGemma 27B使用测试时缩放提升性能)
伦理安全评估
评估方法
通过结构化评估和内部红队测试验证以下内容:
- 儿童安全:涉及儿童性虐待等政策的文本/图像生成
- 内容安全:骚扰、暴力、仇恨言论等
- 表征危害:偏见、刻板印象等
- 医疗危害:信息质量及有害关联
所有测试未启用安全过滤器,主要使用英语提示。
数据卡
数据集
训练数据
- 基础Gemma模型:大规模文本和代码
- MedGemma 4B:使用专为医学数据训练的SigLIP图像编码器,涵盖放射学、病理学等去标识化图像
评估数据
22个临床相关基准数据集,覆盖5类任务和6种医学影像模态,包括专家人工评估。
数据来源
公开数据集:
专有数据集:
来自合作机构的去标识化数据,包括:
- 美国门诊放射中心的CT研究
- 欧洲学术医院的病理切片(结肠、前列腺等)
- 澳大利亚的皮肤癌图像
完整引用见原文。
使用限制
预期用途
作为医疗文本/图像应用的开发起点,需开发者根据具体场景微调。
优势
- 提供同类尺寸模型中优异的医学理解基线
- 高效适配下游医疗用例
限制
- 禁止直接临床使用:输出需独立验证和临床关联
- 多图像理解未验证:当前仅评估单图像任务
- 提示敏感性:比Gemma 3更依赖特定提示格式
- 数据偏差风险:需确保验证数据代表目标人群
开发者应注意:
- 避免使用非公开数据评估以防数据污染
- 验证模型在目标设备/人群中的表现
(注:本文档为技术摘要,完整条款和细节请参阅原始链接)