抽取式问答
Turkish Medical Question Answering
MIT
基于BERT架构微调的土耳其语医疗领域问答模型,专门用于从医疗文本中提取答案
问答系统
Transformers
其他
T
kaixkhazaki
20
1
Modernbert QnA Base Squad
Apache-2.0
基于ModernBERT微调的问答模型,在SQuAD数据集上表现优异,适用于抽取式问答任务。
问答系统
Transformers
英语
M
rankyx
1,106
6
Flan T5 Large Squad2
MIT
基于flan-t5-large模型,使用SQuAD2.0数据集微调的抽取式问答模型,支持可回答和不可回答问题的处理。
问答系统
Transformers
英语
F
sjrhuschlee
57
5
Flan T5 Base Squad2
MIT
基于flan-t5-base模型,使用SQuAD2.0数据集微调的抽取式问答模型,可处理包含无答案问题的问答对。
问答系统
Transformers
英语
F
sjrhuschlee
2,425
4
Eurekaqa Model
EurekaQA是一款基于先进机器学习算法的AI问答模型,能够通过分析文本数据自动提取信息回答问题。
问答系统
Transformers
英语
E
Kaludi
32
2
Faquad Bert Base Portuguese Cased
Apache-2.0
该模型是基于neuralmind/bert-base-portuguese-cased在FaQuAD数据集上微调的版本,用于葡萄牙语的抽取式问答任务。
问答系统
Transformers
其他
F
eraldoluis
14
4
Roberta Base Ca V2 Cased Qa
Apache-2.0
基于RoBERTa架构的加泰罗尼亚语问答模型,在加泰罗尼亚语问答任务上表现优异
问答系统
Transformers
其他
R
projecte-aina
208
1
Electra Base Squad2
这是一个基于ELECTRA-base架构的英语抽取式问答模型,在SQuAD 2.0数据集上训练,适用于问答任务。
问答系统
E
bhadresh-savani
102
0
Japanese Roberta Question Answering
基于JaQuAD数据集微调的日语问答模型,适用于抽取式问答任务
问答系统
Transformers
日语
J
ybelkada
298
1
Xquad Th Mbert Base
基于多语言BERT的泰语抽取式问答模型,能区分大小写,适用于泰语问答任务。
问答系统
Transformers
X
zhufy
16
0
Distilroberta Base Squad V2
Apache-2.0
基于distilroberta-base在SQuAD2.0数据集上微调的问答模型,支持处理无答案问题
问答系统
Transformers
英语
D
squirro
24
1
Autonlp More Fine Tune 24465520 26265898
这是一个基于AutoNLP训练的抽取式问答模型,能够从给定文本中提取问题的答案。
问答系统
Transformers
其他
A
teacookies
16
0
Splinter Base
Apache-2.0
Splinter是一种通过自监督预训练的模型,专为小样本问答任务设计,采用循环跨度选择(RSS)目标进行预训练。
问答系统
Transformers
英语
S
tau
648
1
Autonlp More Fine Tune 24465520 26265897
这是一个基于AutoNLP训练的抽取式问答模型,能够从给定文本中提取问题的答案。
问答系统
Transformers
其他
A
teacookies
16
1
Longformer Base 4096 Spanish Finetuned Squad
这是一个在西班牙语长文本版Longformer基础上,使用SQAC数据集针对问答任务进行微调的模型,支持最长4,096个token的文本序列。
问答系统
Transformers
西班牙语
L
mrm8488
98
7
Splinter Base Qass
Apache-2.0
Splinter是一种通过自监督方式预训练的少样本问答模型,采用循环跨度选择(RSS)目标进行预训练,模拟抽取式问答中的跨度选择过程。
问答系统
Transformers
英语
S
tau
3,048
1
Qa Roberta Base Chinese Extractive
这是一个使用中文语料微调的RoBERTa-Base问答模型,适用于抽取式问答任务。
问答系统
Transformers
中文
Q
liam168
34
9
Bert Base Multilingual Xquad
基于bert-base-multilingual-uncased的多语言问答模型,在XQuAD数据集上微调
问答系统
Transformers
其他
B
alon-albalak
24
0
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,在GLUE基准测试中保持BERT 95%以上的性能。
问答系统
Transformers
英语
D
distilbert
154.39k
115
Roberta Large Bne Sqac
Apache-2.0
这是一个针对西班牙语问答任务优化的RoBERTa大型模型,基于西班牙国家图书馆的大规模语料库训练
问答系统
Transformers
西班牙语
R
PlanTL-GOB-ES
966
8
Bart Squad2
基于BART架构的抽取式问答模型,在Squad 2.0数据集上训练完成,F1得分为87.4
问答系统
Transformers
英语
B
primer-ai
18
2
Roberta Base Bne Sqac
Apache-2.0
西班牙语问答模型,基于roberta-base-bne微调,使用西班牙国家图书馆570GB文本数据预训练
问答系统
Transformers
西班牙语
R
PlanTL-GOB-ES
507
4