My Awesome Qa Model
Apache-2.0
基于bert-base-multilingual-cased在squad数据集上微调的问答模型
问答系统
Transformers
M
vnktrmnb
14
0
Indobert SQuAD
MIT
基于IndoBERT微调的印尼语问答模型,在SQuAD2.0数据集上训练
问答系统
Transformers
I
esakrissa
14
3
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,用于问答任务。
问答系统
Transformers
D
pfsv
15
1
Extractive Question Answering Not Evaluated
Apache-2.0
该模型是在SQuAD数据集上微调的DistilBERT模型,用于抽取式问答任务,具有较高的精确匹配率和F1分数。
问答系统
Transformers
E
autoevaluate
18
2
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
monakth
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的轻量级问答模型,在SQuAD数据集上微调
问答系统
Transformers
D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,用于阅读理解任务。
问答系统
Transformers
D
BillZou
14
0
Bart Base Few Shot K 256 Finetuned Squad Seed 4
Apache-2.0
该模型是基于facebook/bart-base在squad数据集上微调的版本,适用于问答任务。
问答系统
Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 16 Finetuned Squad Seed 2
Apache-2.0
基于facebook/bart-base模型在squad数据集上进行微调的版本,适用于问答任务。
问答系统
Transformers
B
anas-awadalla
13
0
Banglabert Finetuned Squad
该模型是在孟加拉语SQuAD数据集上对BanglaBERT进行微调的版本,用于问答任务
问答系统
Transformers
B
Naimul
15
0
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
这是DistilBERT基础未编码模型的INT8量化版本,专为问答任务设计,通过训练后静态量化优化了模型大小和推理速度。
问答系统
Transformers
D
Intel
1,737
4
Bert Large Uncased Finetuned Squadv1
基于BERT-large模型在SQuADv1数据集上微调的问答模型,采用二阶剪枝技术优化
问答系统
Transformers
英语
B
RedHatAI
35
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD v2数据集上微调,适用于问答任务
问答系统
Transformers
D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于distilbert-base-uncased模型在squad_v2数据集上微调的问答模型
问答系统
Transformers
D
haddadalwi
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调的版本,专门用于问答任务。
问答系统
Transformers
D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调后的版本,用于问答任务。
问答系统
Transformers
D
shahma
16
0
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统
Transformers
R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased在squad问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
sasuke
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT模型在SQuAD数据集上微调的问答模型
问答系统
Transformers
D
shaojie
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
anu24
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
lorenzkuhn
15
0
Deberta Base Finetuned Squad1 Aqa Newsqa
MIT
基于DeBERTa-base模型在SQuAD1、AQA和NewsQA数据集上微调的问答模型
问答系统
Transformers
D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
该模型是基于DeBERTa-base在SQuAD问答数据集上微调的版本,用于自动问答任务
问答系统
Transformers
D
stevemobs
14
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
该模型是基于distilbert-base-uncased在SQuAD对抗数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
stevemobs
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD数据集上微调,用于阅读理解任务
问答系统
Transformers
D
ak987
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,用于提取式问答任务。
问答系统
Transformers
D
sam999
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT基础模型在SQuAD问答数据集上微调的问答模型
问答系统
Transformers
D
cosmo
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
laampt
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2问答数据集上微调的版本,用于问答任务。
问答系统
Transformers
D
kiana
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
jsunster
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
21iridescent
19
0
Roberta Base Squad2 Finetuned Squad
该模型是基于RoBERTa-base在SQuAD 2.0数据集上微调的问答模型,擅长处理阅读理解任务。
问答系统
Transformers
R
deepakvk
14
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,用于问答任务。
问答系统
Transformers
D
aaraki
16
0
Distilbert Base Uncased Holtin Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD 2.0问答数据集上微调的版本,用于问答任务。
问答系统
Transformers
D
holtin
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT的轻量级模型,在SQuAD问答数据集上进行了微调,用于问答任务。
问答系统
Transformers
D
nikcook
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased在squad问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
gokulkarthik
20
0
Distilbert Base Uncased Distilled Squad Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased-distilled-squad在squad_v2数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
deepakvk
24
0
Transformers Qa
Apache-2.0
该模型是基于distilbert-base-cased在SQuAD数据集上微调的问答模型,专为Keras.io的问答教程训练。
问答系统
Transformers
T
keras-io
23
4
Bert Base Uncased Squadv1 X1.96 F88.3 D27 Hybrid Filled Opt V1
MIT
基于BERT-base uncased模型在SQuAD v1上微调并优化的问答模型,通过剪枝技术保留43%原始权重,推理速度提升1.96倍
问答系统
Transformers
英语
B
madlag
20
0