My Awesome Qa Model
Apache-2.0
基于bert-base-multilingual-cased在squad数据集上微调的问答模型
问答系统
Transformers

M
vnktrmnb
14
0
Indobert SQuAD
MIT
基于IndoBERT微调的印尼语问答模型,在SQuAD2.0数据集上训练
问答系统
Transformers

I
esakrissa
14
3
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,用于问答任务。
问答系统
Transformers

D
pfsv
15
1
Extractive Question Answering Not Evaluated
Apache-2.0
该模型是在SQuAD数据集上微调的DistilBERT模型,用于抽取式问答任务,具有较高的精确匹配率和F1分数。
问答系统
Transformers

E
autoevaluate
18
2
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
monakth
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的轻量级问答模型,在SQuAD数据集上微调
问答系统
Transformers

D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,用于阅读理解任务。
问答系统
Transformers

D
BillZou
14
0
Bart Base Few Shot K 256 Finetuned Squad Seed 4
Apache-2.0
该模型是基于facebook/bart-base在squad数据集上微调的版本,适用于问答任务。
问答系统
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 16 Finetuned Squad Seed 2
Apache-2.0
基于facebook/bart-base模型在squad数据集上进行微调的版本,适用于问答任务。
问答系统
Transformers

B
anas-awadalla
13
0
Banglabert Finetuned Squad
该模型是在孟加拉语SQuAD数据集上对BanglaBERT进行微调的版本,用于问答任务
问答系统
Transformers

B
Naimul
15
0
Distilbert Base Uncased Distilled Squad Int8 Static Inc
Apache-2.0
这是DistilBERT基础未编码模型的INT8量化版本,专为问答任务设计,通过训练后静态量化优化了模型大小和推理速度。
问答系统
Transformers

D
Intel
1,737
4
Bert Large Uncased Finetuned Squadv1
基于BERT-large模型在SQuADv1数据集上微调的问答模型,采用二阶剪枝技术优化
问答系统
Transformers

英语
B
RedHatAI
35
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD v2数据集上微调,适用于问答任务
问答系统
Transformers

D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于distilbert-base-uncased模型在squad_v2数据集上微调的问答模型
问答系统
Transformers

D
haddadalwi
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调的版本,专门用于问答任务。
问答系统
Transformers

D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调后的版本,用于问答任务。
问答系统
Transformers

D
shahma
16
0
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统
Transformers

R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased在squad问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
sasuke
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT模型在SQuAD数据集上微调的问答模型
问答系统
Transformers

D
shaojie
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
anu24
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
lorenzkuhn
15
0
Deberta Base Finetuned Squad1 Aqa Newsqa
MIT
基于DeBERTa-base模型在SQuAD1、AQA和NewsQA数据集上微调的问答模型
问答系统
Transformers

D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
该模型是基于DeBERTa-base在SQuAD问答数据集上微调的版本,用于自动问答任务
问答系统
Transformers

D
stevemobs
14
0
Distilbert Base Uncased Combined Squad Adversarial
Apache-2.0
该模型是基于distilbert-base-uncased在SQuAD对抗数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
stevemobs
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD数据集上微调,用于阅读理解任务
问答系统
Transformers

D
ak987
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,用于提取式问答任务。
问答系统
Transformers

D
sam999
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT基础模型在SQuAD问答数据集上微调的问答模型
问答系统
Transformers

D
cosmo
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
laampt
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2问答数据集上微调的版本,用于问答任务。
问答系统
Transformers

D
kiana
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
jsunster
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
21iridescent
19
0
Roberta Base Squad2 Finetuned Squad
该模型是基于RoBERTa-base在SQuAD 2.0数据集上微调的问答模型,擅长处理阅读理解任务。
问答系统
Transformers

R
deepakvk
14
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,用于问答任务。
问答系统
Transformers

D
aaraki
16
0
Distilbert Base Uncased Holtin Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD 2.0问答数据集上微调的版本,用于问答任务。
问答系统
Transformers

D
holtin
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT的轻量级模型,在SQuAD问答数据集上进行了微调,用于问答任务。
问答系统
Transformers

D
nikcook
20
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased在squad问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
gokulkarthik
20
0
Distilbert Base Uncased Distilled Squad Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased-distilled-squad在squad_v2数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
deepakvk
24
0
Transformers Qa
Apache-2.0
该模型是基于distilbert-base-cased在SQuAD数据集上微调的问答模型,专为Keras.io的问答教程训练。
问答系统
Transformers

T
keras-io
23
4
Bert Base Uncased Squadv1 X1.96 F88.3 D27 Hybrid Filled Opt V1
MIT
基于BERT-base uncased模型在SQuAD v1上微调并优化的问答模型,通过剪枝技术保留43%原始权重,推理速度提升1.96倍
问答系统
Transformers

英语
B
madlag
20
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文