D

Dialogled Large 5120

由 MingZhong 开发
DialogLM是基于长文本编码器-解码器(LED)架构的预训练模型,专为长对话理解与摘要任务设计。
下载量 441
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DialogLM是一个面向长对话理解与摘要的预训练模型,采用基于窗口的去噪预训练策略,支持最长5,120个token的输入序列。

模型特点

长对话支持
支持最长5,120个token的输入序列,适合处理长对话场景。
去噪预训练策略
采用基于窗口的去噪预训练策略,提升模型在长对话任务中的表现。
编码器-解码器架构
基于LED架构,能够同时处理对话理解和摘要生成任务。

模型能力

长对话理解
对话摘要生成

使用案例

对话系统
客服对话摘要
自动生成客服对话的摘要,便于后续分析和处理。
会议记录摘要
对长时间会议对话进行摘要,提取关键信息。