阅读理解优化
Modernbert Base Squad2 V0.2
Apache-2.0
基于ModernBERT-base-nli微调的问答模型,支持长上下文处理
问答系统
Transformers
M
Praise2112
42
2
Bert Base Chinese Finetuned Squadv2
该模型是在中文版SQuAD v2.0数据集上对bert-base-chinese进行微调的版本,专为中文问答任务设计,支持可回答与不可回答问题。
问答系统
Transformers
B
real-jiakai
33
1
Roberta Finetuned Subjqa Movies 1
基于deepset/roberta-base-squad2微调的问答模型,专注于电影相关问答任务
问答系统
Transformers
R
skandavivek2
15
0
Electra Squad Training
Apache-2.0
基于SQuAD数据集微调的ELECTRA-small模型,用于问答任务
问答系统
Transformers
E
mlxen
20
0
Electra Contrastdata Squad
Apache-2.0
该模型是基于SQuAD数据集对ELECTRA-small判别器进行微调的版本,适用于问答任务。
问答系统
Transformers
E
mlxen
19
0
Bart Base Few Shot K 256 Finetuned Squad Seed 2
Apache-2.0
基于BART-base架构,在SQuAD数据集上进行微调的问答模型,适用于少样本学习场景
问答系统
Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 256 Finetuned Squad Seed 0
Apache-2.0
该模型是基于facebook/bart-base在squad数据集上微调的版本,适用于问答任务。
问答系统
Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 2
Apache-2.0
基于SQuAD数据集微调的BART-base模型,适用于问答任务
问答系统
Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 0
Apache-2.0
基于facebook/bart-base模型在SQuAD数据集上进行微调的版本,适用于问答任务
问答系统
Transformers
B
anas-awadalla
13
0
Roberta Base Few Shot K 128 Finetuned Squad Seed 42
MIT
基于RoBERTa-base模型在SQuAD数据集上进行few-shot微调的问答模型
问答系统
Transformers
R
anas-awadalla
19
0
Roberta Base Few Shot K 1024 Finetuned Squad Seed 0
MIT
基于roberta-base在squad数据集上微调的问答模型
问答系统
Transformers
R
anas-awadalla
19
0
Roberta Base Few Shot K 1024 Finetuned Squad Seed 4
MIT
基于RoBERTa-base模型在SQuAD数据集上进行微调的问答模型,适用于阅读理解任务
问答系统
Transformers
R
anas-awadalla
19
0
Roberta Base Few Shot K 256 Finetuned Squad Seed 6
MIT
基于RoBERTa-base模型在SQuAD数据集上进行微调的问答模型,适用于阅读理解任务
问答系统
Transformers
R
anas-awadalla
20
0