预训练语言模型
Tybert
Apache-2.0
由Trendyol预训练的土耳其语Bert模型,适用于多种自然语言理解任务。
大型语言模型
Transformers
其他
T
Trendyol
54
6
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转换为token序列进行训练。
气候模型
Transformers
C
autogluon
318.45k
12
Chronos T5 Mini
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过将时间序列转化为token序列进行训练,支持概率预测。
气候模型
Transformers
C
autogluon
23.57k
5
Llama 3 Spicy 8B
基于mergekit工具合并的预训练语言模型,融合了多个Llama-3变体模型的特点
大型语言模型
Transformers
L
nbeerbower
14
1
Chronos T5 Tiny
Apache-2.0
Chronos是基于语言模型架构的预训练时间序列预测模型家族,通过量化和缩放将时间序列转化为标记序列进行训练。
气候模型
Transformers
C
amazon
573.84k
106
Japanese Gpt Neox 3.6b
MIT
一个拥有36亿参数的日语GPT-NeoX模型,基于Transformer架构,在3125亿token的日语语料上训练。
大型语言模型
Transformers
支持多种语言
J
rinna
34.74k
99
Hoogberta NER Lst20
针对泰语命名实体识别任务微调的预训练语言模型,基于LST20数据集
序列标注
Transformers
其他
H
lst-nectec
95
1
Italian Legal BERT
基于意大利语XXL BERT模型,在国家司法档案3.7GB预处理文本上进行额外预训练的法律领域专用模型
大型语言模型
Transformers
其他
I
dlicari
1,511
20
Nezha Cn Base
哪吒(NEZHA)是一个面向中文理解的神经语境化表征模型,基于Transformer架构,由华为诺亚方舟实验室开发。
大型语言模型
Transformers
N
sijunhe
1,443
12
Vihealthbert Base Word
ViHealthBERT是面向越南语健康文本挖掘的预训练语言模型,在医疗健康领域提供强基线性能
大型语言模型
Transformers
V
demdecuong
633
5
Ernie Gram Zh
ERNIE-Gram是一个通过显式N-Gram掩码语言建模进行预训练的自然语言理解模型
大型语言模型
Transformers
中文
E
nghuyong
225
5
Distil Slovakbert
MIT
这是一个基于RoBERTa架构的斯洛伐克语填充掩码模型,适用于处理斯洛伐克语文本任务。
大型语言模型
Transformers
其他
D
crabz
36
0
Tcr Bert Mlm Only
TCR-BERT 是一个基于 BERT 架构的预训练模型,专门针对 T 细胞受体(TCR)序列进行优化,通过掩码氨基酸建模任务进行训练。
蛋白质模型
Transformers
T
wukevin
27
4
Cdlm
Apache-2.0
CDLM是一个专注于跨文档语言建模的预训练模型,能够处理多个文档间的语义关系。
大型语言模型
Transformers
英语
C
biu-nlp
131
1
Multi Dialect Bert Base Arabic
基于Arabic-BERT初始化并在1000万条阿拉伯语推文上训练的多方言BERT模型,支持阿拉伯语多种方言识别
大型语言模型
阿拉伯语
M
bashar-talafha
357
8
Hebert
HeBERT是基于希伯来语的预训练语言模型,采用BERT架构,专注于极性分析与情感识别任务。
大型语言模型
H
avichr
102.19k
16
Araelectra Base Artydiqa
基于AraELECTRA的阿拉伯语维基百科问答系统,专为阿拉伯语阅读理解任务设计
问答系统
Transformers
阿拉伯语
A
wissamantoun
86
11
German Gpt2
MIT
这是一个基于GPT-2架构的德语语言模型,专门针对德语文本生成任务进行了优化。
大型语言模型
德语
G
anonymous-german-nlp
176
1
Bros Base Uncased
BROS是一个专注于文本与版面布局的预训练语言模型,旨在从文档中高效提取关键信息。
大型语言模型
Transformers
B
naver-clova-ocr
53.22k
18
Biosyn Sapbert Ncbi Disease
由韩国大学Dmis-lab开发的基于BioBERT的生物医学实体识别模型,专注于NCBI疾病数据集的特征提取任务
文本嵌入
Transformers
B
dmis-lab
580
2
Bert Base Portuguese Cased
MIT
针对巴西葡萄牙语的预训练BERT模型,在多个NLP任务中达到最先进性能
大型语言模型
其他
B
neuralmind
257.25k
181
Chinese Bert Wwm
Apache-2.0
采用全词掩码策略的中文预训练BERT模型,旨在加速中文自然语言处理研究。
大型语言模型
中文
C
hfl
28.52k
79
Financialbert
FinancialBERT是基于海量金融文本预训练的BERT模型,旨在推动金融领域自然语言处理的研究与实践。
大型语言模型
Transformers
英语
F
ahmedrachid
3,784
27
Kobart Base V1
MIT
KoBART是基于BART架构的韩语预训练模型,适用于多种韩语自然语言处理任务。
大型语言模型
Transformers
韩语
K
gogamza
2,077
1
Longformer Base Plagiarism Detection
该模型使用Longformer架构训练,专门用于检测机器改写的抄袭文本,在学术诚信维护中具有重要应用价值。
文本分类
Transformers
英语
L
jpwahle
59.47k
13
Gpt2 Chinese Ancient
专用于生成文言文文本的GPT2模型,基于300万条文言文数据预训练
大型语言模型
中文
G
uer
341
16
Nepalibert
NepaliBERT 是一个基于 BERT 架构的先进尼泊尔语语言模型,采用掩码语言建模(MLM)方法进行训练。
大型语言模型
Transformers
N
Rajan
118
3
Chinese Bigbird Base 4096
Apache-2.0
基于BigBird架构的中文预训练模型,支持4096长度的上下文处理
大型语言模型
Transformers
中文
C
Lowin
48
3
Bert Base Arabic Camelbert Ca
Apache-2.0
CAMeLBERT是针对阿拉伯语变体优化的BERT模型集合,CA版本专门针对古典阿拉伯语文本预训练
大型语言模型
阿拉伯语
B
CAMeL-Lab
1,128
12
Gpt2 Fa
Apache-2.0
ParsGPT2 是一个波斯语版本的 GPT-2 模型,由 Hooshvare 团队开发,用于波斯语文本生成任务。
大型语言模型
其他
G
HooshvareLab
5,996
17