问答系统
Cuckoo C4 Instruct
MIT
超级彩虹布谷鸟是一个基于下一词抽取(NTE)范式的小型信息抽取模型,通过模仿大语言模型的预测方式实现高效信息抽取。
问答系统
Transformers
C
KomeijiForce
17
1
Distilbert Qasports
Apache-2.0
基于distilbert-base-uncased-distilled-squad微调的问答模型,在评估集上F1分数达81.33
问答系统
Transformers
D
laurafcamargos
18
1
Protrix
ProTrix是一个面向表格与句子上下文规划推理的模型,专注于处理表格数据和文本数据的联合推理任务。
问答系统
Transformers
P
pkupie
14
0
Llama Medx V3
Apache-2.0
这是一个基于Hugging Face Transformers库的大语言模型,适用于自然语言处理任务如文本生成、语言翻译和问答。
大型语言模型
Transformers
L
skumar9
2,598
2
Bahasa 4b Chat
其他
基于qwen-4b模型,使用100亿高质量印尼语文本继续训练而成的印尼语大语言模型
大型语言模型
Transformers
其他
B
Bahasalab
120
5
Text2vec Base Chinese Rag
Apache-2.0
专为中文文本语义理解设计的CoSENT框架模型,适用于检索增强生成(RAG)任务
文本嵌入
Transformers
T
Mike0307
46.60k
9
Mistral 7B Instruct Ukrainian
Apache-2.0
针对乌克兰语优化的开源大语言模型,通过三阶段训练流程构建,包括微调、模型融合和直接偏好优化
大型语言模型
Transformers
M
SherlockAssistant
1,443
22
Sentence BERTino V2 Mmarco 4m
Apache-2.0
这是一个基于sentence-transformers的意大利语句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和聚类任务。
文本嵌入
Transformers
其他
S
efederici
16
2
Reastap Large Finetuned Wtq
ReasTAP是基于表格推理的预训练模型,通过合成推理示例注入表格推理技能,并在WikiTableQuestions数据集上微调
问答系统
Transformers
英语
R
Yale-LILY
66
2
Fid T5 Large Nq
该模型基于解码器融合架构,使用t5-large检查点,在自然问题数据集上训练,用于问答系统任务。
问答系统
Transformers
英语
F
Intel
156
3
Minilm NaturalQuestions
MIT
基于microsoft/MiniLM-L12-H384-uncased在NaturalQuestions数据集上微调的模型,适用于问答任务
大型语言模型
Transformers
M
remunds
31
1
Xtremedistil L6 H384 Uncased Finetuned Squad
MIT
该模型是基于microsoft/xtremedistil-l6-h384-uncased在squad数据集上微调的版本,主要用于问答任务。
问答系统
Transformers
X
tachyon-11
20
0
Electra Qa
Electra-qa 是一个基于 ELECTRA 架构的问答模型,适用于问答任务。
问答系统
Transformers
E
vaibhav9
14
0
Spanbert Qa
基于SpanBERT/spanbert-base-cased微调的问答模型,适用于阅读理解任务
问答系统
Transformers
S
vaibhav9
24
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,用于问答任务。
问答系统
Transformers
D
pfsv
15
1
Albert Base V2 Finetuned Squad Seed 9001
Apache-2.0
基于ALBERT基础模型在SQuAD 2.0问答数据集上微调的问答模型
问答系统
Transformers
A
zates
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于distilbert-base-uncased模型在SQuAD数据集上微调的问答模型
问答系统
Transformers
D
LeWince
15
0
Roberta Base Squad
MIT
基于roberta-base模型微调的问答模型,在SQuAD格式数据集上训练
问答系统
Transformers
R
DLL888
14
0
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
monakth
13
0
Albert Base V2 Finetuned Squad Seed 1024
Apache-2.0
基于ALBERT基础模型在SQuAD 2.0问答数据集上微调的问答模型
问答系统
Transformers
A
htermotto
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的轻量级问答模型,在SQuAD数据集上微调
问答系统
Transformers
D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,用于阅读理解任务。
问答系统
Transformers
D
BillZou
14
0
Bart Base Few Shot K 512 Finetuned Squad Seed 4
Apache-2.0
基于facebook/bart-base在squad数据集上微调的模型,适用于问答任务
问答系统
Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
基于BART-base架构,在SQuAD数据集上进行微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 2
Apache-2.0
基于facebook/bart-base在squad数据集上微调的问答模型
问答系统
Transformers
B
anas-awadalla
13
0
Deberta V3 Xsmall Squad2
Apache-2.0
基于DeBERTa-v3-xsmall架构的问答系统模型,专门针对SQuAD2.0数据集进行微调
问答系统
Transformers
D
nlpconnect
21
0
Bert Base Uncased Finetuned Squad
Apache-2.0
这是一个在SQuAD问答数据集上微调的BERT模型,用于问答任务。
问答系统
Transformers
B
harveyagraphcore
15
0
Mobilebert Uncased Finetuned Squadv1
基于MobileBERT模型在SQuADv1问答数据集上微调的版本,针对问答任务优化
问答系统
Transformers
英语
M
RedHatAI
41
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers
D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD v2数据集上微调,适用于问答任务
问答系统
Transformers
D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于distilbert-base-uncased模型在squad_v2数据集上微调的问答模型
问答系统
Transformers
D
haddadalwi
17
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
基于bert-base-uncased模型在TriviaQA数据集上微调的问答模型
问答系统
Transformers
B
FabianWillner
191
0
Roberta Base Squad2 Finetuned Squad
该模型是基于deepset/roberta-base-squad2微调的版本,适用于问答任务。
问答系统
Transformers
R
ms12345
14
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
BERT基础版模型在TriviaQA问答数据集上进行微调,用于开放域问答任务
问答系统
Transformers
英语
B
mirbostani
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD数据集上微调,用于提取式问答任务。
问答系统
Transformers
D
lingchensanwen
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调的版本,专门用于问答任务。
问答系统
Transformers
D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调后的版本,用于问答任务。
问答系统
Transformers
D
shahma
16
0
Envit5 Base
MIT
基于Transformer的预训练编码器-解码器模型,专为越南语和英语设计,支持摘要生成、翻译和问答任务。
大型语言模型
其他
E
VietAI
47
1
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统
Transformers
R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased在squad问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers
D
sasuke
16
0