D

Distilroberta Base Finetuned Wikitext2

由 lucius 开发
该模型是基于distilroberta-base在wikitext2数据集上微调的版本,主要用于文本生成任务。
下载量 37
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个经过微调的DistilRoBERTa模型,适用于文本生成和相关任务。

模型特点

高效微调
基于distilroberta-base模型进行微调,保留了原模型的高效性同时适应特定任务。
轻量级
作为Distil版本,模型参数更少,推理速度更快。

模型能力

文本生成
语言模型微调

使用案例

文本生成
内容创作辅助
可用于辅助生成连贯的文本内容。