D

Distilbert Base Uncased Becas 2

由 Evelyn18 开发
基于distilbert-base-uncased在becasv2数据集上微调的模型,验证损失为5.9506
下载量 16
发布时间 : 6/29/2022
模型介绍
内容详情
替代品

模型简介

该模型是DistilBERT的微调版本,主要用于文本相关任务。具体用途需进一步补充信息。

模型特点

轻量级BERT
基于DistilBERT架构,比标准BERT更轻量高效
领域微调
在becasv2数据集上进行了微调,可能具备特定领域能力

模型能力

文本理解
文本分类(推断)
文本特征提取(推断)

使用案例

自然语言处理
文本分类
可能适用于特定领域的文本分类任务
验证损失5.9506