T

Text Generation News Gpt2 Small Hungarian

由 NYTK 开发
基于匈牙利语维基百科预训练并在匈牙利新闻语料上微调的GPT-2模型,专门用于匈牙利语新闻文本生成
下载量 270
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于GPT-2架构的匈牙利语文本生成模型,经过维基百科预训练和匈牙利新闻网站(hvg.hu, index.hu, nol.hu)微调,专门用于生成匈牙利语新闻内容。

模型特点

匈牙利语优化
专门针对匈牙利语进行预训练和微调,在匈牙利语文本生成任务上表现优异
新闻领域微调
在匈牙利主流新闻网站语料上进行微调,特别适合新闻类文本生成
低困惑度
在新闻生成任务上达到22.06的困惑度,优于诗歌生成模型(47.46)

模型能力

匈牙利语文本生成
新闻内容创作
标题生成

使用案例

新闻媒体
新闻自动生成
根据关键信息自动生成新闻内容
可生成符合匈牙利新闻风格的文本
新闻标题生成
基于新闻内容生成吸引人的标题
内容创作
匈牙利语创意写作
辅助匈牙利语内容创作