G

Gpt2 Finetuned Wikitext2

由 Rocketknight1 开发
该模型是基于GPT-2架构在wikitext2数据集上进行微调的版本,主要用于文本生成任务。
下载量 17
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于GPT-2的微调模型,针对wikitext2数据集进行了优化,适用于通用的文本生成任务。

模型特点

基于GPT-2架构
采用成熟的GPT-2架构,具有良好的文本生成能力
wikitext2微调
在wikitext2数据集上进行微调,适合处理百科类文本
轻量级微调
在保持原始GPT-2能力基础上进行了针对性优化

模型能力

文本生成
语言建模
文本补全

使用案例

内容生成
百科内容生成
基于wikitext2数据特性,生成百科类文本内容
文本续写
根据给定文本片段生成连贯的后续内容