D

Distilroberta Base Finetuned Wikitext2

由 Rawat29 开发
该模型是基于distilroberta-base在wikitext2数据集上微调的版本,主要用于文本生成任务。
下载量 47
发布时间 : 3/8/2022
模型介绍
内容详情
替代品

模型简介

这是一个经过微调的DistilRoBERTa模型,适用于文本生成和相关自然语言处理任务。

模型特点

高效微调
基于DistilRoBERTa基础模型进行微调,保持了原模型的高效性同时适应特定任务。
文本生成能力
经过wikitext2数据集微调,具备良好的文本生成能力。

模型能力

文本生成
自然语言理解

使用案例

文本生成
自动文本补全
可用于自动补全句子或段落。
内容创作辅助
辅助创作者生成文章草稿或内容片段。