G

Gpt2 Small Turkish

由 gorkemgoknar 开发
这是一个基于GPT2-Small英语模型的微调版本,使用土耳其语维基百科文章进行训练,适用于土耳其语文本生成任务。
下载量 545
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于GPT2架构的土耳其语文本生成模型,主要用于土耳其语的文本自动补全和生成任务。

模型特点

土耳其语优化
专门针对土耳其语进行了微调,提高了土耳其语文本生成的质量。
基于维基百科训练
使用土耳其语维基百科文章进行训练,具有丰富的语言知识。
多长度支持
支持最大1024的序列长度,适合生成较长的文本内容。

模型能力

土耳其语文本生成
文本自动补全
语言模型预测

使用案例

内容创作
自动文章写作
根据给定的开头自动生成完整的土耳其语文章
文本补全
根据部分输入自动补全完整的句子或段落
教育
语言学习辅助
帮助土耳其语学习者生成示例句子和文本