Cuckoo C4 Instruct
MIT
超级彩虹布谷鸟是一个基于下一词抽取(NTE)范式的小型信息抽取模型,通过模仿大语言模型的预测方式实现高效信息抽取。
问答系统
Transformers

C
KomeijiForce
17
1
Distilbert Qasports
Apache-2.0
基于distilbert-base-uncased-distilled-squad微调的问答模型,在评估集上F1分数达81.33
问答系统
Transformers

D
laurafcamargos
18
1
Protrix
ProTrix是一个面向表格与句子上下文规划推理的模型,专注于处理表格数据和文本数据的联合推理任务。
问答系统
Transformers

P
pkupie
14
0
Llama Medx V3
Apache-2.0
这是一个基于Hugging Face Transformers库的大语言模型,适用于自然语言处理任务如文本生成、语言翻译和问答。
大型语言模型
Transformers

L
skumar9
2,598
2
Bahasa 4b Chat
其他
基于qwen-4b模型,使用100亿高质量印尼语文本继续训练而成的印尼语大语言模型
大型语言模型
Transformers

其他
B
Bahasalab
120
5
Text2vec Base Chinese Rag
Apache-2.0
专为中文文本语义理解设计的CoSENT框架模型,适用于检索增强生成(RAG)任务
文本嵌入
Transformers

T
Mike0307
46.60k
9
Mistral 7B Instruct Ukrainian
Apache-2.0
针对乌克兰语优化的开源大语言模型,通过三阶段训练流程构建,包括微调、模型融合和直接偏好优化
大型语言模型
Transformers

M
SherlockAssistant
1,443
22
Sentence BERTino V2 Mmarco 4m
Apache-2.0
这是一个基于sentence-transformers的意大利语句子嵌入模型,可将文本映射到768维向量空间,适用于语义搜索和聚类任务。
文本嵌入
Transformers

其他
S
efederici
16
2
Reastap Large Finetuned Wtq
ReasTAP是基于表格推理的预训练模型,通过合成推理示例注入表格推理技能,并在WikiTableQuestions数据集上微调
问答系统
Transformers

英语
R
Yale-LILY
66
2
Fid T5 Large Nq
该模型基于解码器融合架构,使用t5-large检查点,在自然问题数据集上训练,用于问答系统任务。
问答系统
Transformers

英语
F
Intel
156
3
Minilm NaturalQuestions
MIT
基于microsoft/MiniLM-L12-H384-uncased在NaturalQuestions数据集上微调的模型,适用于问答任务
大型语言模型
Transformers

M
remunds
31
1
Xtremedistil L6 H384 Uncased Finetuned Squad
MIT
该模型是基于microsoft/xtremedistil-l6-h384-uncased在squad数据集上微调的版本,主要用于问答任务。
问答系统
Transformers

X
tachyon-11
20
0
Electra Qa
Electra-qa 是一个基于 ELECTRA 架构的问答模型,适用于问答任务。
问答系统
Transformers

E
vaibhav9
14
0
Spanbert Qa
基于SpanBERT/spanbert-base-cased微调的问答模型,适用于阅读理解任务
问答系统
Transformers

S
vaibhav9
24
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD问答数据集上微调的版本,用于问答任务。
问答系统
Transformers

D
pfsv
15
1
Albert Base V2 Finetuned Squad Seed 9001
Apache-2.0
基于ALBERT基础模型在SQuAD 2.0问答数据集上微调的问答模型
问答系统
Transformers

A
zates
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于distilbert-base-uncased模型在SQuAD数据集上微调的问答模型
问答系统
Transformers

D
LeWince
15
0
Roberta Base Squad
MIT
基于roberta-base模型微调的问答模型,在SQuAD格式数据集上训练
问答系统
Transformers

R
DLL888
14
0
Distilbert Base Cased Finetuned Squadv2
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
monakth
13
0
Albert Base V2 Finetuned Squad Seed 1024
Apache-2.0
基于ALBERT基础模型在SQuAD 2.0问答数据集上微调的问答模型
问答系统
Transformers

A
htermotto
13
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的轻量级问答模型,在SQuAD数据集上微调
问答系统
Transformers

D
shizil
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD数据集上微调的问答模型,用于阅读理解任务。
问答系统
Transformers

D
BillZou
14
0
Bart Base Few Shot K 512 Finetuned Squad Seed 4
Apache-2.0
基于facebook/bart-base在squad数据集上微调的模型,适用于问答任务
问答系统
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
基于BART-base架构,在SQuAD数据集上进行微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 2
Apache-2.0
基于facebook/bart-base在squad数据集上微调的问答模型
问答系统
Transformers

B
anas-awadalla
13
0
Deberta V3 Xsmall Squad2
Apache-2.0
基于DeBERTa-v3-xsmall架构的问答系统模型,专门针对SQuAD2.0数据集进行微调
问答系统
Transformers

D
nlpconnect
21
0
Bert Base Uncased Finetuned Squad
Apache-2.0
这是一个在SQuAD问答数据集上微调的BERT模型,用于问答任务。
问答系统
Transformers

B
harveyagraphcore
15
0
Mobilebert Uncased Finetuned Squadv1
基于MobileBERT模型在SQuADv1问答数据集上微调的版本,针对问答任务优化
问答系统
Transformers

英语
M
RedHatAI
41
1
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT在SQuAD v2数据集上微调的问答模型,适用于阅读理解任务。
问答系统
Transformers

D
shila
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD v2数据集上微调,适用于问答任务
问答系统
Transformers

D
MMVos
15
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于distilbert-base-uncased模型在squad_v2数据集上微调的问答模型
问答系统
Transformers

D
haddadalwi
17
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
基于bert-base-uncased模型在TriviaQA数据集上微调的问答模型
问答系统
Transformers

B
FabianWillner
191
0
Roberta Base Squad2 Finetuned Squad
该模型是基于deepset/roberta-base-squad2微调的版本,适用于问答任务。
问答系统
Transformers

R
ms12345
14
0
Bert Base Uncased Finetuned Triviaqa
Apache-2.0
BERT基础版模型在TriviaQA问答数据集上进行微调,用于开放域问答任务
问答系统
Transformers

英语
B
mirbostani
17
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
基于DistilBERT的问答模型,在SQuAD数据集上微调,用于提取式问答任务。
问答系统
Transformers

D
lingchensanwen
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调的版本,专门用于问答任务。
问答系统
Transformers

D
ashhyun
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于DistilBERT基础模型在SQuAD问答数据集上微调后的版本,用于问答任务。
问答系统
Transformers

D
shahma
16
0
Envit5 Base
MIT
基于Transformer的预训练编码器-解码器模型,专为越南语和英语设计,支持摘要生成、翻译和问答任务。
大型语言模型
其他
E
VietAI
47
1
Roberta Base Finetuned Squad
MIT
基于RoBERTa-base模型在SQuAD 2.0数据集上微调的问答模型,用于回答基于给定文本的问题
问答系统
Transformers

R
janeel
16
0
Distilbert Base Uncased Finetuned Squad
Apache-2.0
该模型是基于distilbert-base-uncased在squad问答数据集上微调的版本,适用于问答任务。
问答系统
Transformers

D
sasuke
16
0
- 1
- 2
- 3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文