D

Distilkobert

由 monologg 开发
DistilKoBERT是韩语BERT模型的轻量级版本,通过知识蒸馏技术压缩原始模型,保留了大部分性能同时减少计算资源需求。
下载量 17.02k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是专门针对韩语优化的轻量级BERT模型,适用于各种韩语自然语言处理任务。

模型特点

轻量级设计
通过知识蒸馏技术压缩原始模型,减少计算资源需求
韩语优化
专门针对韩语特点进行优化
兼容Hugging Face生态
可通过transformers库加载使用

模型能力

韩语文本理解
韩语文本分类
韩语命名实体识别

使用案例

自然语言处理
韩语文本分类
对韩语文本进行分类任务
韩语情感分析
分析韩语文本的情感倾向