G

Gpt2 Wikitext2

由 dnarqq 开发
基于GPT-2架构在wikitext2数据集上微调的语言模型
下载量 63
发布时间 : 11/2/2023
模型介绍
内容详情
替代品

模型简介

该模型是在wikitext2数据集上对GPT-2进行微调的版本,主要用于文本生成任务。

模型特点

基于GPT-2微调
在wikitext2数据集上对GPT-2基础模型进行了微调
文本生成能力
继承了GPT-2强大的文本生成能力

模型能力

文本生成
语言建模

使用案例

文本生成
内容创作
可用于辅助文章写作、故事创作等
对话系统
可作为对话系统的生成组件