D

Distilgpt2

由 distilbert 开发
DistilGPT2是GPT-2的轻量级蒸馏版本,拥有8200万参数,保留了GPT-2的核心文本生成能力,同时体积更小、速度更快。
下载量 2.7M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于Transformer的英语语言模型,采用知识蒸馏技术从GPT-2压缩而来,适用于文本生成任务。

模型特点

轻量高效
相比GPT-2参数量减少34%,推理速度更快,资源消耗更低
知识蒸馏
采用蒸馏技术保留GPT-2核心能力,模型质量损失较小
即插即用
兼容Hugging Face Transformers库,可快速集成到现有NLP流程中

模型能力

文本生成
创意写作辅助
文本自动补全

使用案例

写作辅助
散文创作
帮助作家生成创意文本段落
可生成连贯的英文散文片段
代码补全
辅助程序员编写代码
娱乐应用
聊天机器人
构建轻量级对话系统