ALBERT架构
Zero Shot Classify SSTuning ALBERT
MIT
通过自监督调优(SSTuning)训练的零样本文本分类模型,基于ALBERT-xxlarge-v2架构,可直接用于情感分析、主题分类等任务而无需微调。
文本分类
Transformers
Z
DAMO-NLP-SG
98
4
Albert Base Japanese V1 With Japanese Tokenizer
MIT
这是一个经过日语预训练的ALBERT模型,使用了BertJapaneseTokenizer作为分词器,处理日语文本更加便捷。
大型语言模型
Transformers
日语
A
ken11
44
3
Albert Base Chinese Ws
Gpl-3.0
由中研院词库小组开发的繁体中文自然语言处理模型,基于ALBERT架构,支持分词、词性标注等任务。
序列标注
Transformers
中文
A
ckiplab
1,498
1
Albert Squad V2
Apache-2.0
基于ALBERT架构的问答系统模型,在SQuAD v2数据集上训练,用于处理问答任务。
问答系统
Transformers
英语
A
abhilash1910
22
2
Albert Fa Base V2 Sentiment Multi
Apache-2.0
为波斯语自监督学习语言表示的轻量级BERT模型
大型语言模型
Transformers
其他
A
m3hrdadfi
39
1
Albert Base Chinese
Gpl-3.0
由中央研究院词库小组开发的繁体中文Transformer模型,包含ALBERT、BERT、GPT2等架构及自然语言处理工具
大型语言模型
Transformers
中文
A
ckiplab
280
11
Albert Base Chinese Ner
Gpl-3.0
提供繁体中文的transformers模型及自然语言处理工具
序列标注
Transformers
中文
A
ckiplab
2,548
12
Albert Base Chinese Pos
Gpl-3.0
由中研院词库小组开发的繁体中文自然语言处理模型,支持分词、词性标注等任务
序列标注
Transformers
中文
A
ckiplab
1,095
1
Albert Base V2 Finetuned Ner
Apache-2.0
该模型是基于ALBERT-base-v2架构在conll2003数据集上微调的命名实体识别(NER)模型,在实体识别任务上表现出色。
序列标注
Transformers
A
ArBert
20
4