🚀 IT5大型问题生成模型 💭 🇮🇹
本仓库包含 IT5大型 模型的检查点,该模型在 SQuAD-IT语料库 上针对问题生成任务进行了微调。此微调是 Gabriele Sarti 和 Malvina Nissim 所著论文 IT5: 用于意大利语理解和生成的大规模文本到文本预训练 实验的一部分。
gsarti/it5 仓库中提供了其他已发布材料的全面概述。有关报告分数和评估方法的更多详细信息,请参考该论文。
🚀 快速开始
模型使用
模型检查点可在Tensorflow、Pytorch和JAX中使用。可以直接通过管道使用,如下所示:
from transformers import pipelines
qg = pipeline("text2text-generation", model='it5/it5-large-question-generation')
qg("Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto più autorevole di allora è venuto dalla facoltà di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che causò una \"grande pestilenza nell' aria\". Questa relazione è diventata la prima e più diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria più accettata. Oggi, questo è conosciuto come la teoria di Miasma. La parola \"peste\" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che è diventato il termine medico. Risposta: re di Francia")
>>> [{"generated_text": "Per chi è stato redatto il referto medico?"}]
也可以使用自动类加载:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-question-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-question-generation")
引用说明
如果您在研究中使用了此模型,请按以下格式引用我们的工作:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
✨ 主要特性
- 语言相关:支持意大利语,适用于序列到序列、问题生成、文本到文本生成等任务。
- 数据集:基于SQuAD-IT数据集进行训练。
- 评估指标:使用ROUGE和BERTScore等指标进行评估。
📚 详细文档
模型信息
属性 |
详情 |
模型类型 |
it5-large-question-generation |
训练数据 |
SQuAD-IT |
评估指标 |
ROUGE1、ROUGE2、ROUGEL、BERTScore |
评估结果
任务 |
数据集 |
指标 |
值 |
问题生成 |
SQuAD-IT |
Test Rouge1 |
0.383 |
问题生成 |
SQuAD-IT |
Test Rouge2 |
0.204 |
问题生成 |
SQuAD-IT |
Test RougeL |
0.360 |
问题生成 |
SQuAD-IT |
Test BERTScore |
0.522 |
BERTScore参数
参数 |
值 |
model_type |
dbmdz/bert-base-italian-xxl-uncased |
lang |
it |
num_layers |
10 |
rescale_with_baseline |
True |
baseline_path |
bertscore_baseline_ita.tsv |
二氧化碳排放信息
- 排放量:51g
- 来源:Google Cloud Platform Carbon Footprint
- 训练类型:微调
- 地理位置:Eemshaven, Netherlands, Europe
- 使用硬件:1 TPU v3 - 8 VM
缩略图

📄 许可证
本项目采用Apache-2.0许可证。