D

Distilroberta Base Finetuned Wikitext2

由 Rocketknight1 开发
基于distilroberta-base模型在wikitext2数据集上微调的版本,适用于文本相关任务
下载量 17
发布时间 : 3/2/2022

模型简介

该模型是RoBERTa基础模型的蒸馏版(distilroberta-base)在wikitext2数据集上的微调版本,主要用于自然语言处理任务。

模型特点

高效蒸馏模型
基于RoBERTa的蒸馏版本,在保持性能的同时减小模型规模
特定领域微调
在wikitext2数据集上进行微调,可能更适合特定领域的文本处理

模型能力

文本理解
文本生成
语言模型微调

使用案例

文本处理
文本分类
可用于文本分类任务
语言模型微调
可作为基础模型进行进一步的任务特定微调
AIbase
智启未来,您的人工智能解决方案智库
简体中文