Careerbert G
基于ESCO分类体系微调的德语句子转换器模型,专为职业匹配和推荐系统设计
文本嵌入
Transformers

德语
C
lwolfrum2
49
2
Bert Large German Upos
MIT
基于UD_German-HDT预训练的BERT模型,用于德语词性标注和依存句法分析
序列标注
Transformers

支持多种语言
B
KoichiYasuoka
41
1
Roberta Base Wechsel German
MIT
使用WECHSEL方法训练的德语RoBERTa模型,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移。
大型语言模型
Transformers

德语
R
benjamin
96
7
Gottbert Base Last
MIT
GottBERT是首个专为德语设计的RoBERTa模型,基于OSCAR数据集的德语部分进行预训练,提供基础版和大模型版两个版本。
大型语言模型
德语
G
TUM
6,842
17
De Core News Md
MIT
针对CPU优化的德语处理流程,包含分词、词性标注、形态分析、依存句法分析、词形还原、命名实体识别等功能
序列标注
德语
D
spacy
22
1
German Gpt2
MIT
这是一个基于GPT-2架构的德语语言模型,专门针对德语文本生成任务进行了优化。
大型语言模型
德语
G
anonymous-german-nlp
176
1
De Core News Sm
MIT
针对CPU优化的德语处理流程,包含分词、词性标注、形态分析、依存句法分析、词形还原、命名实体识别等功能
序列标注
德语
D
spacy
161
1
De Core News Lg
MIT
spaCy提供的大型德语语言处理模型,支持词性标注、依存分析、命名实体识别等NLP任务
序列标注
德语
D
spacy
66
0
Bert Base German Cased Gnad10
基于bert-base-german-cased微调的德语新闻文本分类模型,使用10KGNAD数据集训练
文本分类
Transformers

德语
B
laiking
699
2
Distilbert Base German Cased
Apache-2.0
这是一个针对德语优化的轻量级BERT模型,通过知识蒸馏技术保留了原始BERT模型的大部分性能,同时显著减小了模型体积和计算需求。
大型语言模型
Transformers

德语
D
distilbert
27.85k
21
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文