基于T5-base微调的联合问题生成与答案抽取模型,支持英语文本处理
下载量 56
发布时间 : 3/2/2022
模型介绍
内容详情
替代品
模型简介
该模型是基于T5-base架构微调的文本生成模型,专门用于从给定文本中生成相关问题并抽取对应答案,主要应用于教育和技术文档处理领域。
模型特点
联合任务处理
可同时执行问题生成和答案抽取两项相关任务
高质量生成
在SQuAD数据集上微调,生成问题与答案的质量较高
易于集成
提供简单API接口,可轻松集成到现有系统中
模型能力
文本到文本生成
问题生成
答案抽取
自然语言理解
上下文相关问答
使用案例
教育技术
自动试题生成
从教材内容自动生成测验问题
BLEU4得分26.01,ROUGE-L得分53.4
学习辅助
为学生生成阅读理解问题
BERTScore达90.58
文档处理
知识库构建
从技术文档中抽取关键问答对
答案抽取F1得分70.18
许可证: cc-by-4.0
评估指标:
- bleu4
- meteor
- rouge-l
- bertscore
- moverscore
语言: 英语
数据集: - lmqg/qg_squad
流水线标签: 文本到文本生成
标签: - 问题生成
- 答案抽取
交互示例:
- 文本: "生成问题:
碧昂丝 进一步扩展了她的演艺事业,在2008年的音乐传记片《Cadillac Records》中饰演蓝调歌手埃塔·詹姆斯。"
示例标题: "问题生成示例1" - 文本: "生成问题: 碧昂丝进一步扩展了她的演艺事业,在2008年的音乐传记片中饰演蓝调歌手
埃塔·詹姆斯 ,《Cadillac Records》。"
示例标题: "问题生成示例2" - 文本: "生成问题: 碧昂丝进一步扩展了她的演艺事业,在2008年的音乐传记片中饰演蓝调歌手埃塔·詹姆斯,
《Cadillac Records》 。"
示例标题: "问题生成示例3" - 文本: "抽取答案:
碧昂丝进一步扩展了她的演艺事业,在2008年的音乐传记片《Cadillac Records》中饰演蓝调歌手埃塔·詹姆斯。 她在片中的表现获得了评论家的赞誉,并因此获得了多个提名,包括卫星奖最佳女配角提名和NAACP形象奖杰出女配角提名。"
示例标题: "答案抽取示例1" - 文本: "抽取答案: 碧昂丝进一步扩展了她的演艺事业,在2008年的音乐传记片《Cadillac Records》中饰演蓝调歌手埃塔·詹姆斯。
她在片中的表现获得了评论家的赞誉,并因此获得了多个提名,包括卫星奖最佳女配角提名和NAACP形象奖杰出女配角提名。 "
示例标题: "答案抽取示例2"
模型索引:
- 名称: lmqg/t5-base-squad-qg-ae
结果:- 任务:
名称: 文本到文本生成
类型: text2text-generation
数据集:
名称: lmqg/qg_squad
类型: default
参数: default
评估指标:- 名称: BLEU4 (问题生成)
类型: bleu4_question_generation
值: 26.01 - 名称: ROUGE-L (问题生成)
类型: rouge_l_question_generation
值: 53.4 - 名称: METEOR (问题生成)
类型: meteor_question_generation
值: 27.0 - 名称: BERTScore (问题生成)
类型: bertscore_question_generation
值: 90.58 - 名称: MoverScore (问题生成)
类型: moverscore_question_generation
值: 64.72 - 名称: QAAlignedF1Score-BERTScore (问题与答案生成(含标准答案))
类型: qa_aligned_f1_score_bertscore_question_answer_generation_with_gold_answer
值: 92.53 - 名称: QAAlignedRecall-BERTScore (问题与答案生成(含标准答案))
类型: qa_aligned_recall_bertscore_question_answer_generation_with_gold_answer
值: 92.74 - 名称: QAAlignedPrecision-BERTScore (问题与答案生成(含标准答案))
类型: qa_aligned_precision_bertscore_question_answer_generation_with_gold_answer
值: 92.35 - 名称: QAAlignedF1Score-MoverScore (问题与答案生成(含标准答案))
类型: qa_aligned_f1_score_moverscore_question_answer_generation_with_gold_answer
值: 64.23 - 名称: QAAlignedRecall-MoverScore (问题与答案生成(含标准答案))
类型: qa_aligned_recall_moverscore_question_answer_generation_with_gold_answer
值: 64.23 - 名称: QAAlignedPrecision-MoverScore (问题与答案生成(含标准答案))
类型: qa_aligned_precision_moverscore_question_answer_generation_with_gold_answer
值: 64.33 - 名称: BLEU4 (答案抽取)
类型: bleu4_answer_extraction
值: 44.33 - 名称: ROUGE-L (答案抽取)
类型: rouge_l_answer_extraction
值: 69.62 - 名称: METEOR (答案抽取)
类型: meteor_answer_extraction
值: 43.94 - 名称: BERTScore (答案抽取)
类型: bertscore_answer_extraction
值: 91.57 - 名称: MoverScore (答案抽取)
类型: moverscore_answer_extraction
值: 82.16 - 名称: AnswerF1Score (答案抽取)
类型: answer_f1_score__answer_extraction
值: 70.18 - 名称: AnswerExactMatch (答案抽取)
类型: answer_exact_match_answer_extraction
值: 58.9
- 名称: BLEU4 (问题生成)
- 任务:
lmqg/t5-base-squad-qg-ae
模型卡
该模型是基于t5-base进行微调的版本,用于在lmqg/qg_squad(数据集名称: default)上联合执行问题生成和答案抽取任务,通过lmqg
实现。
概述
- 语言模型: t5-base
- 语言: 英语
- 训练数据: lmqg/qg_squad (default)
- 在线演示: https://autoqg.net/
- 代码库: https://github.com/asahi417/lm-question-generation
- 论文: https://arxiv.org/abs/2210.03992
使用方法
- 使用
lmqg
from lmqg import TransformersQG
# 初始化模型
model = TransformersQG(language="en", model="lmqg/t5-base-squad-qg-ae")
# 模型预测
question_answer_pairs = model.generate_qa("威廉·特纳是一位擅长水彩风景画的英国画家")
- 使用
transformers
from transformers import pipeline
pipe = pipeline("text2text-generation", "lmqg/t5-base-squad-qg-ae")
# 答案抽取
answer = pipe("生成问题: <hl> 碧昂丝 <hl> 进一步扩展了她的演艺事业,在2008年的音乐传记片《Cadillac Records》中饰演蓝调歌手埃塔·詹姆斯。")
# 问题生成
question = pipe("抽取答案: <hl> 碧昂丝进一步扩展了她的演艺事业,在2008年的音乐传记片《Cadillac Records》中饰演蓝调歌手埃塔·詹姆斯。<hl> 她在片中的表现获得了评论家的赞誉,并因此获得了多个提名,包括卫星奖最佳女配角提名和NAACP形象奖杰出女配角提名。")
评估
- 问题生成指标: 原始指标文件
分数 | 类型 | 数据集 | |
---|---|---|---|
BERTScore | 90.58 | default | lmqg/qg_squad |
Bleu_1 | 58.59 | default | lmqg/qg_squad |
Bleu_2 | 42.6 | default | lmqg/qg_squad |
Bleu_3 | 32.91 | default | lmqg/qg_squad |
Bleu_4 | 26.01 | default | lmqg/qg_squad |
METEOR | 27 | default | lmqg/qg_squad |
MoverScore | 64.72 | default | lmqg/qg_squad |
ROUGE_L | 53.4 | default | lmqg/qg_squad |
- 问题与答案生成指标: 原始指标文件
分数 | 类型 | 数据集 | |
---|---|---|---|
QAAlignedF1Score (BERTScore) | 92.53 | default | lmqg/qg_squad |
QAAlignedF1Score (MoverScore) | 64.23 | default | lmqg/qg_squad |
QAAlignedPrecision (BERTScore) | 92.35 | default | lmqg/qg_squad |
QAAlignedPrecision (MoverScore) | 64.33 | default | lmqg/qg_squad |
QAAlignedRecall (BERTScore) | 92.74 | default | lmqg/qg_squad |
QAAlignedRecall (MoverScore) | 64.23 | default | lmqg/qg_squad |
- 答案抽取指标: 原始指标文件
分数 | 类型 | 数据集 | |
---|---|---|---|
AnswerExactMatch | 58.9 | default | lmqg/qg_squad |
AnswerF1Score | 70.18 | default | lmqg/qg_squad |
BERTScore | 91.57 | default | lmqg/qg_squad |
Bleu_1 | 56.96 | default | lmqg/qg_squad |
Bleu_2 | 52.57 | default | lmqg/qg_squad |
Bleu_3 | 48.21 | default | lmqg/qg_squad |
Bleu_4 | 44.33 | default | lmqg/qg_squad |
METEOR | 43.94 | default | lmqg/qg_squad |
MoverScore | 82.16 | default | lmqg/qg_squad |
ROUGE_L | 69.62 | default | lmqg/qg_squad |
训练超参数
微调过程中使用的超参数如下:
- 数据集路径: lmqg/qg_squad
- 数据集名称: default
- 输入类型: ['paragraph_answer', 'paragraph_sentence']
- 输出类型: ['question', 'answer']
- 前缀类型: ['qg', 'ae']
- 模型: t5-base
- 最大长度: 512
- 输出最大长度: 32
- 训练轮次: 6
- 批量大小: 32
- 学习率: 0.0001
- 是否使用FP16: 否
- 随机种子: 1
- 梯度累积步数: 4
- 标签平滑: 0.15
完整配置详见微调配置文件。
引用
@inproceedings{ushio-etal-2022-generative,
title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
author = "Ushio, Asahi and
Alva-Manchego, Fernando and
Camacho-Collados, Jose",
booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
month = dec,
year = "2022",
address = "Abu Dhabi, U.A.E.",
publisher = "Association for Computational Linguistics",
}
Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,保留95%以上性能。
问答系统
英语
D
distilbert
220.76k
244
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,在GLUE基准测试中保持BERT 95%以上的性能。
问答系统
Transformers

英语
D
distilbert
154.39k
115
Tapas Large Finetuned Wtq
Apache-2.0
TAPAS是基于BERT架构的表格问答模型,通过自监督方式在维基百科表格数据上预训练,支持对表格内容进行自然语言问答
问答系统
Transformers

英语
T
google
124.85k
141
Bert Base Cased Qa Evaluator
基于BERT-base-cased的问答对评估模型,用于判断问题和答案是否语义相关
问答系统
B
iarfmoose
122.54k
9
Tiny Doc Qa Vision Encoder Decoder
MIT
一个基于MIT许可证的文档问答模型,主要用于测试目的。
问答系统
Transformers

T
fxmarty
41.08k
16
Dpr Question Encoder Single Nq Base
DPR(密集段落检索)是用于开放领域问答研究的工具和模型。
问答系统
Transformers

英语
D
facebook
32.90k
30
Mobilebert Uncased Squad V2
MIT
MobileBERT是BERT_LARGE的轻量化版本,在SQuAD2.0数据集上微调而成的问答系统模型。
问答系统
Transformers

英语
M
csarron
29.11k
7
Tapas Base Finetuned Wtq
Apache-2.0
TAPAS是一个基于Transformer的表格问答模型,通过自监督学习在维基百科表格数据上预训练,并在WTQ等数据集上微调。
问答系统
Transformers

英语
T
google
23.03k
217
Dpr Question Encoder Multiset Base
基于BERT的密集段落检索(DPR)问题编码器,用于开放领域问答研究,在多个QA数据集上训练
问答系统
Transformers

英语
D
facebook
17.51k
4
Roberta Base On Cuad
MIT
基于RoBERTa-base模型在法律合同问答任务上微调的模型,专为法律合同审查设计
问答系统
Transformers

英语
R
Rakib
14.79k
8
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文