问答生成
Tiny Llama Miniguanaco 1.5T
Apache-2.0
TinyLlama 1.5T检查点是一个基于1.1B参数的小型语言模型,训练用于回答问题。
大型语言模型
Transformers
英语
T
Corianas
97
3
Generative Reader Nq Squad V2
Apache-2.0
该模型是基于mt5-base-squad2-fin在squad_v2数据集上微调的版本,主要用于问答任务。
问答系统
Transformers
G
masakhane
42
1
T5 Large Generation Squad QuestionAnswer
Apache-2.0
该模型是基于t5-large架构,在SQuAD数据集上微调的文本生成模型,用于从给定上下文中生成问题及对应的答案。
问答系统
Transformers
英语
T
potsawee
376
47
Bert Base Uncased Pretrained Mlm Coqa Stories
基于BERT架构的预训练语言模型,支持掩码语言建模任务
大型语言模型
Transformers
B
alistvt
23
0
Gpt2 Question Answering Squad2
基于GPT-2架构的问答模型,专门针对SQuAD2数据集进行微调,能够回答基于给定文本的问题。
问答系统
Transformers
G
danyaljj
16
2
Distilbart Qgen 3 3
Apache-2.0
该模型是基于SQuAD数据集微调的BART变体,专门用于根据文本段落和答案生成对应问题。
问答系统
Transformers
英语
D
gpssohi
21
3
T5 Base Finetuned Question Generation Ap
Apache-2.0
该模型是基于T5-base架构,在SQuAD v1.1数据集上微调,专门用于问题生成任务。
问答系统
Transformers
英语
T
mrm8488
6,562
109
T5 Base Finetuned For Question Generation
这是一个基于T5-Base架构微调的问题生成模型,专门用于从给定的答案和上下文中生成相关问题。
问答系统
Transformers
英语
T
ZhangCheng
251
14
Mixqg 3b
MixQG是一种基于混合答案类型的神经问题生成模型,能够根据给定的上下文和答案生成相关问题。
问答系统
Transformers
英语
M
Salesforce
448
7