BERT架构优化
Language Detection
MIT
基于BERT的多语言检测模型,支持200种语言的文本分类任务
文本分类
支持多种语言
L
alexneakameni
1,210
1
M2 BERT 128 Retrieval Encoder V1
Apache-2.0
M2-BERT-128是论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》中提出的8000万参数检索模型检查点
文本嵌入
Transformers
英语
M
hazyresearch
19
3
Layoutlm Wikipedia Ja
这是一个基于日语文本预训练的LayoutLM模型,主要用于处理日语文档的令牌分类任务。
大型语言模型
Transformers
日语
L
jri-advtechlab
22
1
Environmentalbert Biodiversity
Apache-2.0
基于EnvironmentalBERT-base微调的生物多样性文本分类模型,专注于ESG/自然领域的生物多样性文本检测
大型语言模型
Transformers
英语
E
ESGBERT
101
5
M2 Bert 80M 32k Retrieval
Apache-2.0
这是一个80M参数的M2-BERT预训练模型,支持长达32768的序列长度,专为长上下文检索任务优化
文本嵌入
Transformers
英语
M
togethercomputer
1,274
129
Ghisbert
MIT
GHisBERT是基于BERT架构的模型,专为历史德语数据从头训练而成,涵盖德语所有有文献记载的发展阶段。
大型语言模型
Transformers
G
christinbeck
37
4
Bert Addresses
基于BERT架构的命名实体识别模型,专门用于标注人名、机构名及美国地址信息
序列标注
Transformers
B
ctrlbuzz
3,284
8
Luke Japanese Wordpiece Base
Apache-2.0
基于日语BERT改进的LUKE模型,专为日语命名实体识别任务优化
序列标注
Transformers
日语
L
uzabase
16
4
Econobert
Apache-2.0
EconoBert是基于bert-base-uncased在经济学领域数据集上微调的模型,适用于经济学、政治学和金融学领域的NLP任务。
大型语言模型
Transformers
英语
E
samchain
78
5
Geolm Base Toponym Recognition
GeoLM是一个用于从句子中检测地名的语言模型,基于全球范围的OpenStreetMap、WikiData和Wikipedia数据预训练,并在GeoWebNews数据集上微调。
序列标注
Transformers
英语
G
zekun-li
186
6
Simcse Indobert Base
基于IndoBERT的SimCSE模型,用于生成印尼语句子的语义嵌入向量
文本嵌入
Transformers
其他
S
LazarusNLP
26
1
Indobertnews
MIT
基于indolem/indobert-base-uncased微调的印尼语文本分类模型,在评估集上准确率达79.54%
大型语言模型
Transformers
I
mrizalf7
42
1
Bert Base Han Chinese Pos Jindai
Gpl-3.0
提供针对古汉语的词性标注功能,训练数据集涵盖汉语发展的四个历史时期。
序列标注
Transformers
中文
B
ckiplab
28
1
Ruscibert
Apache-2.0
由Sber AI团队与莫斯科国立大学人工智能研究所MLSA实验室联合训练的俄语BERT模型,专注于科学文本处理
大型语言模型
Transformers
其他
R
ai-forever
1,044
7
Vietnamese Address Embedding
这是一个基于sentence-transformers的模型,能够将越南语地址句子和段落映射到768维的密集向量空间,主要用于地址标准化任务。
文本嵌入
Transformers
V
CaoHaiNam
58
0
Nezha Cn Base
哪吒(NEZHA)是一个面向中文理解的神经语境化表征模型,基于Transformer架构,由华为诺亚方舟实验室开发。
大型语言模型
Transformers
N
sijunhe
1,443
12
Bert Ancient Chinese
Apache-2.0
这是一个基于BERT架构的中文预训练语言模型,支持文言文和现代汉语处理。
大型语言模型
Transformers
中文
B
Jihuai
625
25
Sentece Embeddings BETO
基于sentence-transformers的西班牙语BERT模型,用于生成句子和段落的768维向量表示
文本嵌入
Transformers
S
espejelomar
75
1
Legal Hebert Ft
Legal-HeBERT 是一个面向希伯来语法律及立法领域的 BERT 模型,旨在推动希伯来语法律自然语言处理研究与工具开发。
大型语言模型
Transformers
L
avichr
48
3
Arabertmo Base V10
AraBERTMo是基于谷歌BERT架构的阿拉伯语预训练语言模型,支持填充掩码任务。
大型语言模型
Transformers
A
Ebtihal
39
0
Rubert Base Cased Sentiment
基于RuBERT架构的俄语短文本情感分类模型,支持中性、积极和消极三种情感分类
文本分类
其他
R
blanchefort
51.45k
16
Roberta Base
基于韩语预训练的RoBERTa模型,适用于多种韩语自然语言处理任务。
大型语言模型
Transformers
韩语
R
klue
1.2M
33
Bert Base Arabertv01
基于BERT架构的阿拉伯语预训练语言模型,支持多种阿拉伯语NLP任务
大型语言模型
阿拉伯语
B
aubmindlab
293
2
Muril Adapted Local
Apache-2.0
MuRIL是谷歌开源的基于17种印度语言及其转写版本预训练的BERT模型,支持多语言表示。
大型语言模型
支持多种语言
M
monsoon-nlp
24
2
Bert Base Ja
基于日语维基百科数据集训练的BERT基础模型,适用于日语文本的掩码填充任务
大型语言模型
Transformers
日语
B
colorfulscoop
16
1
Bert Medium Arabic
预训练的阿拉伯语BERT中型语言模型,基于约82亿词的阿拉伯语文本资源训练
大型语言模型
阿拉伯语
B
asafaya
66
0
Bert Base Italian Xxl Uncased Finetuned ComunaliRoma
MIT
该模型是基于意大利语预训练模型bert-base-italian-xxl-uncased在特定数据集上微调的版本,适用于意大利语文本处理任务。
大型语言模型
Transformers
B
maxspaziani
23
0
Bert Base Chinese Ws
Gpl-3.0
提供繁体中文的transformers模型及自然语言处理工具
大型语言模型
中文
B
ckiplab
48.37k
16
Klue Bert Base Aihub Mrc
基于KLUE BERT-base微调的韩语机器阅读理解模型,使用AIHub数据集训练
问答系统
Transformers
韩语
K
bespin-global
29
1
Alephbert Base
Apache-2.0
当前最先进的希伯来语语言模型,基于BERT架构
大型语言模型
其他
A
onlplab
25.26k
18
Arabertmo Base V4
AraBERTMo是一个基于BERT架构的阿拉伯语预训练语言模型,支持填充掩码任务。
大型语言模型
Transformers
阿拉伯语
A
Ebtihal
15
0
Sloberta
SloBERTa是一个专门针对斯洛文尼亚语优化的单语BERT类模型,基于Camembert架构开发。
大型语言模型
Transformers
其他
S
EMBEDDIA
2,691
5
Dehatebert Mono German
Apache-2.0
该模型基于多语言BERT微调,专门用于检测德语中的仇恨言论,采用单语(英语)训练数据。
文本分类
德语
D
Hate-speech-CNERG
300
3
Arabertmo Base V6
AraBERTMo是一个基于BERT架构的阿拉伯语预训练语言模型,支持填充掩码任务。
大型语言模型
Transformers
阿拉伯语
A
Ebtihal
14
0
Chinese Bigbird Base 4096
Apache-2.0
基于BigBird架构的中文预训练模型,支持4096长度的上下文处理
大型语言模型
Transformers
中文
C
Lowin
48
3
Bert Base Arabic Camelbert Da Sentiment
Apache-2.0
基于CAMeLBERT方言阿拉伯语模型微调的情感分析模型,支持阿拉伯语文本情感分类
文本分类
Transformers
阿拉伯语
B
CAMeL-Lab
26.07k
44
Arabertmo Base V2
基于BERT架构的阿拉伯语预训练语言模型,支持填充掩码任务
大型语言模型
Transformers
阿拉伯语
A
Ebtihal
17
0
Arabertmo Base V3
AraBERTMo是一个基于谷歌BERT架构的阿拉伯语预训练语言模型,支持填充-掩码任务。
大型语言模型
Transformers
阿拉伯语
A
Ebtihal
15
0