Turkish Medical Question Answering
MIT
基于BERT架构微调的土耳其语医疗领域问答模型,专门用于从医疗文本中提取答案
问答系统
Transformers

其他
T
kaixkhazaki
20
1
Modernbert QnA Base Squad
Apache-2.0
基于ModernBERT微调的问答模型,在SQuAD数据集上表现优异,适用于抽取式问答任务。
问答系统
Transformers

英语
M
rankyx
1,106
6
Flan T5 Large Squad2
MIT
基于flan-t5-large模型,使用SQuAD2.0数据集微调的抽取式问答模型,支持可回答和不可回答问题的处理。
问答系统
Transformers

英语
F
sjrhuschlee
57
5
Flan T5 Base Squad2
MIT
基于flan-t5-base模型,使用SQuAD2.0数据集微调的抽取式问答模型,可处理包含无答案问题的问答对。
问答系统
Transformers

英语
F
sjrhuschlee
2,425
4
Eurekaqa Model
EurekaQA是一款基于先进机器学习算法的AI问答模型,能够通过分析文本数据自动提取信息回答问题。
问答系统
Transformers

英语
E
Kaludi
32
2
Faquad Bert Base Portuguese Cased
Apache-2.0
该模型是基于neuralmind/bert-base-portuguese-cased在FaQuAD数据集上微调的版本,用于葡萄牙语的抽取式问答任务。
问答系统
Transformers

其他
F
eraldoluis
14
4
Roberta Base Ca V2 Cased Qa
Apache-2.0
基于RoBERTa架构的加泰罗尼亚语问答模型,在加泰罗尼亚语问答任务上表现优异
问答系统
Transformers

其他
R
projecte-aina
208
1
Electra Base Squad2
这是一个基于ELECTRA-base架构的英语抽取式问答模型,在SQuAD 2.0数据集上训练,适用于问答任务。
问答系统
E
bhadresh-savani
102
0
Japanese Roberta Question Answering
基于JaQuAD数据集微调的日语问答模型,适用于抽取式问答任务
问答系统
Transformers

日语
J
ybelkada
298
1
Xquad Th Mbert Base
基于多语言BERT的泰语抽取式问答模型,能区分大小写,适用于泰语问答任务。
问答系统
Transformers

X
zhufy
16
0
Distilroberta Base Squad V2
Apache-2.0
基于distilroberta-base在SQuAD2.0数据集上微调的问答模型,支持处理无答案问题
问答系统
Transformers

英语
D
squirro
24
1
Autonlp More Fine Tune 24465520 26265898
这是一个基于AutoNLP训练的抽取式问答模型,能够从给定文本中提取问题的答案。
问答系统
Transformers

其他
A
teacookies
16
0
Splinter Base
Apache-2.0
Splinter是一种通过自监督预训练的模型,专为小样本问答任务设计,采用循环跨度选择(RSS)目标进行预训练。
问答系统
Transformers

英语
S
tau
648
1
Autonlp More Fine Tune 24465520 26265897
这是一个基于AutoNLP训练的抽取式问答模型,能够从给定文本中提取问题的答案。
问答系统
Transformers

其他
A
teacookies
16
1
Longformer Base 4096 Spanish Finetuned Squad
这是一个在西班牙语长文本版Longformer基础上,使用SQAC数据集针对问答任务进行微调的模型,支持最长4,096个token的文本序列。
问答系统
Transformers

西班牙语
L
mrm8488
98
7
Splinter Base Qass
Apache-2.0
Splinter是一种通过自监督方式预训练的少样本问答模型,采用循环跨度选择(RSS)目标进行预训练,模拟抽取式问答中的跨度选择过程。
问答系统
Transformers

英语
S
tau
3,048
1
Qa Roberta Base Chinese Extractive
这是一个使用中文语料微调的RoBERTa-Base问答模型,适用于抽取式问答任务。
问答系统
Transformers

中文
Q
liam168
34
9
Bert Base Multilingual Xquad
基于bert-base-multilingual-uncased的多语言问答模型,在XQuAD数据集上微调
问答系统
Transformers

其他
B
alon-albalak
24
0
Distilbert Base Uncased Distilled Squad
Apache-2.0
DistilBERT是BERT的轻量级蒸馏版本,参数量减少40%,速度提升60%,在GLUE基准测试中保持BERT 95%以上的性能。
问答系统
Transformers

英语
D
distilbert
154.39k
115
Roberta Large Bne Sqac
Apache-2.0
这是一个针对西班牙语问答任务优化的RoBERTa大型模型,基于西班牙国家图书馆的大规模语料库训练
问答系统
Transformers

西班牙语
R
PlanTL-GOB-ES
966
8
Bart Squad2
基于BART架构的抽取式问答模型,在Squad 2.0数据集上训练完成,F1得分为87.4
问答系统
Transformers

英语
B
primer-ai
18
2
Roberta Base Bne Sqac
Apache-2.0
西班牙语问答模型,基于roberta-base-bne微调,使用西班牙国家图书馆570GB文本数据预训练
问答系统
Transformers

西班牙语
R
PlanTL-GOB-ES
507
4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文