D

Distilbert Base Uncased Becas 1

由 Evelyn18 开发
基于distilbert-base-uncased在becasv2数据集上微调的文本分类模型
下载量 18
发布时间 : 6/29/2022
模型介绍
内容详情
替代品

模型简介

该模型是DistilBERT的微调版本,主要用于文本分类任务。在becasv2数据集上训练,验证损失为3.8655。

模型特点

高效轻量
基于DistilBERT架构,比标准BERT模型更轻量高效
微调优化
在特定数据集(becasv2)上进行了微调,可能针对特定领域任务有更好表现

模型能力

文本分类
自然语言理解

使用案例

文本分析
文本分类
可用于对英文文本进行分类
验证损失3.8655