ELECTRA架构
Monoelectra Large
Apache-2.0
基于ELECTRA架构的文本重排序模型,用于检索结果的相关性排序
文本嵌入
Transformers
英语
M
cross-encoder
699
2
Monoelectra Base
Apache-2.0
基于 ELECTRA 架构的文本排序交叉编码器,用于检索结果的重排序任务
文本嵌入
Transformers
英语
M
cross-encoder
151
6
Monoelectra Base
Apache-2.0
lightning-ir 是一个基于 ELECTRA 架构的交叉编码器模型,专门用于文本排序任务。
大型语言模型
Safetensors
M
webis
69
4
Crossencoder Electra Base Mmarcofr
MIT
这是一个基于ELECTRA架构的法语交叉编码器模型,专门用于语义搜索中的段落重排序任务。
文本嵌入
法语
C
antoinelouis
18
0
Biencoder Electra Base Mmarcofr
MIT
这是一个用于法语的密集单向量双编码器模型,可用于语义搜索。
文本嵌入
法语
B
antoinelouis
31
2
Electra Squad Training
Apache-2.0
基于SQuAD数据集微调的ELECTRA-small模型,用于问答任务
问答系统
Transformers
E
mlxen
20
0
Electra Contrastdata Squad
Apache-2.0
该模型是基于SQuAD数据集对ELECTRA-small判别器进行微调的版本,适用于问答任务。
问答系统
Transformers
E
mlxen
19
0
Ner Vietnamese Electra Base
基于ELECTRA架构的越南语命名实体识别模型,在VLSP 2018数据集上微调
序列标注
Transformers
其他
N
NlpHUST
41.60k
15
Electra Base Squad2
这是一个基于ELECTRA-base架构的英语抽取式问答模型,在SQuAD 2.0数据集上训练,适用于问答任务。
问答系统
E
bhadresh-savani
102
0
Tamillion
基于ELECTRA框架训练的泰米尔语预训练模型,第二版采用TPU训练并扩大语料库规模
大型语言模型
Transformers
其他
T
monsoon-nlp
58
2
Electra Small Generator Da 256 Cased
这是一个基于自定义丹麦语语料库(约17.5GB)预训练的ELECTRA模型,适用于丹麦语文本处理任务。
大型语言模型
Transformers
其他
E
sarnikowski
39
0
Electra Minuscule Discriminator
一个极其微小的ELECTRA判别器模型,仅用于测试目的。
大型语言模型
Transformers
其他
E
lgrobol
215
1
Qnli Electra Base
Apache-2.0
这是一个基于ELECTRA架构的交叉编码器模型,专门用于问答任务中的自然语言推理(NLI),判断给定问题是否能由特定段落回答。
问答系统
Transformers
英语
Q
cross-encoder
6,172
3
Koelectra Base Generator
Apache-2.0
KoELECTRA是一个基于ELECTRA架构的韩语预训练语言模型,由monologg开发。
大型语言模型
Transformers
韩语
K
monologg
31
0
Ms Marco Electra Base
Apache-2.0
基于ELECTRA-base架构训练的交叉编码器,专为MS Marco段落排序任务优化,用于信息检索中的查询-段落相关性评分。
文本嵌入
Transformers
英语
M
cross-encoder
118.93k
5
Electra Large Synqa
Apache-2.0
基于ELECTRA-Large架构的两阶段训练问答模型,先在合成对抗数据上训练,再在SQuAD和AdversarialQA数据集上微调
问答系统
Transformers
英语
E
mbartolo
24
3
Transformers Ud Japanese Electra Base Ginza 510
MIT
基于ELECTRA架构的日语预训练模型,使用mC4数据集约2亿句日语文本预训练,并在UD_日语_BCCWJ语料上微调
序列标注
Transformers
日语
T
megagonlabs
7,757
2
KR ELECTRA Generator
由首尔国立大学开发的韩语专用ELECTRA模型,在非正式文本处理任务中表现优异
大型语言模型
Transformers
韩语
K
snunlp
42.01k
1
Electra Large Discriminator Squad2 512
这是一个基于ELECTRA架构的大规模判别器模型,专门针对问答任务在SQuAD2.0数据集上进行了微调,能够处理有答案和无答案的问答场景。
问答系统
Transformers
E
ahotrod
8,925
6
Tielectra Small
这是一个在超过4000万词符的TLMD数据集上预训练的提格里尼亚语小型ELECTRA模型
大型语言模型
其他
T
fgaim
16
1
Bert Small Japanese Fin
这是一个基于日语文本预训练的BERT模型,特别针对金融领域进行了优化。
大型语言模型
Transformers
日语
B
izumi-lab
4,446
2
Electra Base De Squad2
MIT
基于electra-base-german-uncased微调的德语问答模型,在自建德语问答数据集(deQuAD)上训练
问答系统
Transformers
德语
E
deutsche-telekom
169
13