Careerbert G
基于ESCO分类体系微调的德语句子转换器模型,专为职业匹配和推荐系统设计
文本嵌入
Transformers
德语
C
lwolfrum2
49
2
Bert Large German Upos
MIT
基于UD_German-HDT预训练的BERT模型,用于德语词性标注和依存句法分析
序列标注
Transformers
支持多种语言
B
KoichiYasuoka
41
1
Roberta Base Wechsel German
MIT
使用WECHSEL方法训练的德语RoBERTa模型,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移。
大型语言模型
Transformers
德语
R
benjamin
96
7
Gottbert Base Last
MIT
GottBERT是首个专为德语设计的RoBERTa模型,基于OSCAR数据集的德语部分进行预训练,提供基础版和大模型版两个版本。
大型语言模型
德语
G
TUM
6,842
17
De Core News Md
MIT
针对CPU优化的德语处理流程,包含分词、词性标注、形态分析、依存句法分析、词形还原、命名实体识别等功能
序列标注
德语
D
spacy
22
1
German Gpt2
MIT
这是一个基于GPT-2架构的德语语言模型,专门针对德语文本生成任务进行了优化。
大型语言模型
德语
G
anonymous-german-nlp
176
1
De Core News Sm
MIT
针对CPU优化的德语处理流程,包含分词、词性标注、形态分析、依存句法分析、词形还原、命名实体识别等功能
序列标注
德语
D
spacy
161
1
De Core News Lg
MIT
spaCy提供的大型德语语言处理模型,支持词性标注、依存分析、命名实体识别等NLP任务
序列标注
德语
D
spacy
66
0
Bert Base German Cased Gnad10
基于bert-base-german-cased微调的德语新闻文本分类模型,使用10KGNAD数据集训练
文本分类
Transformers
德语
B
laiking
699
2
Distilbert Base German Cased
Apache-2.0
这是一个针对德语优化的轻量级BERT模型,通过知识蒸馏技术保留了原始BERT模型的大部分性能,同时显著减小了模型体积和计算需求。
大型语言模型
Transformers
德语
D
distilbert
27.85k
21