这是一个基于BART-large架构的问题生成模型,专门针对SQuAD数据集进行微调,能够从给定的文本中生成相关问题。
下载量 84
发布时间 : 3/2/2022
模型介绍
内容详情
替代品
模型简介
该模型主要用于从文本段落中生成相关问题,特别适用于教育、问答系统等场景。模型基于BART-large架构,在SQuAD数据集上进行了微调。
模型特点
高质量问题生成
在SQuAD数据集上表现出色,能够生成与上下文相关的高质量问题
多语言支持
虽然主要针对中文,但基于BART架构的特性使其具备处理多语言文本的潜力
上下文理解
能够理解文本上下文并生成相关的问题
模型能力
文本生成
问题生成
上下文理解
使用案例
教育
自动生成阅读理解问题
从教材文本中自动生成阅读理解问题
在SQuAD数据集上达到26.17 BLEU4分数
问答系统
问答系统数据增强
为问答系统生成训练数据
BERTScore达到91.0
license: cc-by-4.0 metrics:
- bleu4
- meteor
- rouge-l
- bertscore
- moverscore language: zh datasets:
- lmqg/qg_squad pipeline_tag: text2text-generation tags:
- 问题生成 widget:
- text: "
碧昂丝 进一步拓展了她的演艺事业,在2008年的音乐传记片《卡迪拉克唱片》中饰演蓝调歌手埃塔·詹姆斯。" example_title: "问题生成示例1" - text: "碧昂丝进一步拓展了她的演艺事业,在2008年的音乐传记片中饰演蓝调歌手
埃塔·詹姆斯 ,该片名为《卡迪拉克唱片》。" example_title: "问题生成示例2" - text: "碧昂丝进一步拓展了她的演艺事业,在2008年的音乐传记片中饰演蓝调歌手埃塔·詹姆斯,片名为
卡迪拉克唱片 。" example_title: "问题生成示例3" model-index: - name: lmqg/bart-large-squad-qg
results:
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_squad
type: default
args: default
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 26.17
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 53.85
- name: METEOR (问题生成) type: meteor_question_generation value: 27.07
- name: BERTScore (问题生成) type: bertscore_question_generation value: 91.0
- name: MoverScore (问题生成) type: moverscore_question_generation value: 64.99
- name: QAAlignedF1Score-BERTScore (问题与答案生成(含黄金答案)) [黄金答案] type: qa_aligned_f1_score_bertscore_question_answer_generation_with_gold_answer_gold_answer value: 95.54
- name: QAAlignedRecall-BERTScore (问题与答案生成(含黄金答案)) [黄金答案] type: qa_aligned_recall_bertscore_question_answer_generation_with_gold_answer_gold_answer value: 95.49
- name: QAAlignedPrecision-BERTScore (问题与答案生成(含黄金答案)) [黄金答案] type: qa_aligned_precision_bertscore_question_answer_generation_with_gold_answer_gold_answer value: 95.59
- name: QAAlignedF1Score-MoverScore (问题与答案生成(含黄金答案)) [黄金答案] type: qa_aligned_f1_score_moverscore_question_answer_generation_with_gold_answer_gold_answer value: 70.82
- name: QAAlignedRecall-MoverScore (问题与答案生成(含黄金答案)) [黄金答案] type: qa_aligned_recall_moverscore_question_answer_generation_with_gold_answer_gold_answer value: 70.54
- name: QAAlignedPrecision-MoverScore (问题与答案生成(含黄金答案)) [黄金答案] type: qa_aligned_precision_moverscore_question_answer_generation_with_gold_answer_gold_answer value: 71.13
- name: QAAlignedF1Score-BERTScore (问题与答案生成) [黄金答案] type: qa_aligned_f1_score_bertscore_question_answer_generation_gold_answer value: 93.23
- name: QAAlignedRecall-BERTScore (问题与答案生成) [黄金答案] type: qa_aligned_recall_bertscore_question_answer_generation_gold_answer value: 93.35
- name: QAAlignedPrecision-BERTScore (问题与答案生成) [黄金答案] type: qa_aligned_precision_bertscore_question_answer_generation_gold_answer value: 93.13
- name: QAAlignedF1Score-MoverScore (问题与答案生成) [黄金答案] type: qa_aligned_f1_score_moverscore_question_answer_generation_gold_answer value: 64.76
- name: QAAlignedRecall-MoverScore (问题与答案生成) [黄金答案] type: qa_aligned_recall_moverscore_question_answer_generation_gold_answer value: 64.63
- name: QAAlignedPrecision-MoverScore (问题与答案生成) [黄金答案] type: qa_aligned_precision_moverscore_question_answer_generation_gold_answer value: 64.98
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_squadshifts
type: amazon
args: amazon
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.06530369842068952
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.25030985091008146
- name: METEOR (问题生成) type: meteor_question_generation value: 0.2229994442645732
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.9092814804525936
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.6086538514008419
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_squadshifts
type: new_wiki
args: new_wiki
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.11118273173452982
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.2967546690273089
- name: METEOR (问题生成) type: meteor_question_generation value: 0.27315087810722966
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.9322739617807421
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.6623000084761579
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_squadshifts
type: nyt
args: nyt
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.08117757543966063
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.25292097720734297
- name: METEOR (问题生成) type: meteor_question_generation value: 0.25254205113198686
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.9249009759439454
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.6406329128556304
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_squadshifts
type: reddit
args: reddit
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.059525104157825456
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.22365090580055863
- name: METEOR (问题生成) type: meteor_question_generation value: 0.21499800504546457
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.9095144685254328
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.6059332247878408
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_subjqa
type: books
args: books
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.006278914808207679
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.12368226019088967
- name: METEOR (问题生成) type: meteor_question_generation value: 0.11576293675813865
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.8807110440044503
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.5555905941686486
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_subjqa
type: electronics
args: electronics
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.00866799444965211
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.1601628874804186
- name: METEOR (问题生成) type: meteor_question_generation value: 0.15348605312210778
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.8783386920680519
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.5634845371093992
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_subjqa
type: grocery
args: grocery
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 0.00528043272450429
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.12343711316491492
- name: METEOR (问题生成) type: meteor_question_generation value: 0.15133496445452477
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.8778951253890991
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.5701949938103265
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_subjqa
type: movies
args: movies
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 1.0121579426501661e-06
- name: ROUGE-L (问题生成) type: rouge_l_question_generation value: 0.12508697028506718
- name: METEOR (问题生成) type: meteor_question_generation value: 0.11862284941640638
- name: BERTScore (问题生成) type: bertscore_question_generation value: 0.8748829724726739
- name: MoverScore (问题生成) type: moverscore_question_generation value: 0.5528899173535703
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_subjqa
type: restaurants
args: restaurants
metrics:
- name: BLEU4 (问题生成) type: bleu4_question_generation value: 1.130175098497244
- task:
name: 文本到文本生成
type: text2text-generation
dataset:
name: lmqg/qg_squad
type: default
args: default
metrics:
Distilbert Base Cased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,保留95%以上性能。
问答系统
英语
D
distilbert
220.76k
244
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,在GLUE基准测试中保持BERT 95%以上的性能。
问答系统
Transformers

英语
D
distilbert
154.39k
115
Tapas Large Finetuned Wtq
Apache-2.0
TAPAS是基于BERT架构的表格问答模型,通过自监督方式在维基百科表格数据上预训练,支持对表格内容进行自然语言问答
问答系统
Transformers

英语
T
google
124.85k
141
Bert Base Cased Qa Evaluator
基于BERT-base-cased的问答对评估模型,用于判断问题和答案是否语义相关
问答系统
B
iarfmoose
122.54k
9
Tiny Doc Qa Vision Encoder Decoder
MIT
一个基于MIT许可证的文档问答模型,主要用于测试目的。
问答系统
Transformers

T
fxmarty
41.08k
16
Dpr Question Encoder Single Nq Base
DPR(密集段落检索)是用于开放领域问答研究的工具和模型。
问答系统
Transformers

英语
D
facebook
32.90k
30
Mobilebert Uncased Squad V2
MIT
MobileBERT是BERT_LARGE的轻量化版本,在SQuAD2.0数据集上微调而成的问答系统模型。
问答系统
Transformers

英语
M
csarron
29.11k
7
Tapas Base Finetuned Wtq
Apache-2.0
TAPAS是一个基于Transformer的表格问答模型,通过自监督学习在维基百科表格数据上预训练,并在WTQ等数据集上微调。
问答系统
Transformers

英语
T
google
23.03k
217
Dpr Question Encoder Multiset Base
基于BERT的密集段落检索(DPR)问题编码器,用于开放领域问答研究,在多个QA数据集上训练
问答系统
Transformers

英语
D
facebook
17.51k
4
Roberta Base On Cuad
MIT
基于RoBERTa-base模型在法律合同问答任务上微调的模型,专为法律合同审查设计
问答系统
Transformers

英语
R
Rakib
14.79k
8
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文