语言:
- 英文
许可证: llama2
标签:
- 医学
数据集:
- yahma/alpaca-cleaned
基础模型: epfl-llm/meditron-7b
模型索引:
- 名称: meditron-7b-chat
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: AI2推理挑战赛(25样本)
类型: ai2_arc
配置: ARC挑战赛
拆分: 测试集
参数:
少量样本数: 25
指标:
- 类型: 标准化准确率
值: 50.77
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=malhajar/meditron-7b-chat
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: HellaSwag(10样本)
类型: hellaswag
拆分: 验证集
参数:
少量样本数: 10
指标:
- 类型: 标准化准确率
值: 75.37
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=malhajar/meditron-7b-chat
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU(5样本)
类型: cais/mmlu
配置: 全部
拆分: 测试集
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 40.49
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=malhajar/meditron-7b-chat
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: TruthfulQA(0样本)
类型: truthful_qa
配置: 多项选择
拆分: 验证集
参数:
少量样本数: 0
指标:
- 类型: mc2
值: 48.56
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=malhajar/meditron-7b-chat
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: Winogrande(5样本)
类型: winogrande
配置: winogrande_xl
拆分: 验证集
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 73.16
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=malhajar/meditron-7b-chat
名称: 开放大语言模型排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GSM8k(5样本)
类型: gsm8k
配置: 主要
拆分: 测试集
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 9.17
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=malhajar/meditron-7b-chat
名称: 开放大语言模型排行榜
模型卡片
meditron-7b-chat是基于epfl-llm/meditron-7b
使用Alpaca数据集进行SFT训练的精调版本。
该模型能够回答医学领域不同明确概念的相关信息(详见epfl-llm/meditron-7b
)
模型描述
提示模板
### 指令:
<提示语> (去掉<>)
### 响应:
快速开始指南
使用原始帖子中提供的代码示例与模型交互。
from transformers import AutoTokenizer,AutoModelForCausalLM
model_id = "malhajar/meditron-7b-chat"
model = AutoModelForCausalLM.from_pretrained(model_name_or_path,
device_map="auto",
torch_dtype=torch.float16,
revision="main")
tokenizer = AutoTokenizer.from_pretrained(model_id)
question: "什么是尿道感染?"
prompt = '''
### 指令:
{question}
### 响应:'''
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
output = model.generate(inputs=input_ids,max_new_tokens=512,pad_token_id=tokenizer.eos_token_id,top_k=50, do_sample=True,
top_p=0.95)
response = tokenizer.decode(output[0])
print(response)
详细结果请查看此处
指标 |
值 |
平均得分 |
49.59 |
AI2推理挑战赛(25样本) |
50.77 |
HellaSwag(10样本) |
75.37 |
MMLU(5样本) |
40.49 |
TruthfulQA(0样本) |
48.56 |
Winogrande(5样本) |
73.16 |
GSM8k(5样本) |
9.17 |