D

Distilbert Base Chinese Amazon Zh 20000

由 ASCCCCCCCC 开发
该模型是基于bert-base-chinese在未知数据集上微调的版本,主要用于中文文本处理任务。
下载量 14
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个经过微调的DistilBERT中文模型,适用于中文文本分类或其他自然语言处理任务。

模型特点

轻量级模型
基于DistilBERT架构,相比原始BERT模型更轻量,推理速度更快。
中文优化
专门针对中文文本进行了微调优化。

模型能力

中文文本分类
自然语言理解

使用案例

电商
商品评论分类
对电商平台上的中文商品评论进行情感分析或分类
在评估集上准确率为50.92%