D

Dialogled Base 16384

由 MingZhong 开发
DialogLM是基于Longformer-Encoder-Decoder(LED)架构的预训练模型,专为长对话理解与摘要任务设计。
下载量 566
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DialogLM是一个面向长对话理解与摘要的预训练模型,采用基于窗口的降噪任务作为预训练目标,支持最长16,384个token的输入序列。

模型特点

长对话支持
支持最长16,384个token的输入序列,适合处理长对话场景。
基于窗口的降噪任务
采用基于窗口的降噪任务作为预训练目标,提升模型对长对话的理解能力。
海量数据训练
利用海量长对话数据进行深度训练,增强模型的泛化能力。

模型能力

长对话理解
对话摘要生成

使用案例

对话系统
客服对话摘要
自动生成客服对话的摘要,帮助快速了解对话内容。
会议记录摘要
对长时间会议对话进行摘要,提取关键信息。