F

FRED T5 Large

由 ai-forever 开发
基于T5架构的俄语预训练语言模型,采用类似UL2的7种降噪器混合训练策略,支持多种文本生成任务。
下载量 998
发布时间 : 2/28/2023
模型介绍
内容详情
替代品

模型简介

面向俄语的预训练Transformer语言模型,主要用于文本生成和降噪任务,支持多种前缀标记控制生成内容。

模型特点

多任务降噪训练
采用类似UL2的7种降噪器混合训练策略,增强模型处理噪声文本的能力
前缀标记控制
支持多种前缀标记(如<LM>、<SC1>-<SC6>)控制生成内容和任务类型
大规模俄语训练
使用300GB俄语语料库训练,与ruT5模型使用相同数据集

模型能力

俄语文本生成
文本降噪
前缀控制生成
故事续写
文本补全

使用案例

文本生成
故事续写
使用<LM>前缀进行开放式文本生成
模型能够根据给定开头续写连贯的故事内容
文本补全
使用<SC1>前缀进行文本补全任务
模型能够准确预测并补全缺失的文本片段
降噪处理
噪声文本恢复
处理包含噪声或缺失的文本输入
模型能够有效恢复原始文本内容