F

FRED T5 1.7B

由 ai-forever 开发
基于T5架构的俄语预训练语言模型,采用类似UL2的7种降噪任务混合训练策略,参数规模17亿
下载量 1,671
发布时间 : 1/20/2023
模型介绍
内容详情
替代品

模型简介

面向俄语的大规模预训练Transformer模型,支持多种文本生成和理解任务

模型特点

多任务降噪训练
采用类似UL2的7种降噪任务混合训练策略,增强模型鲁棒性
大规模俄语预训练
使用300GB俄语语料库训练,与ruT5模型使用相同数据集
前缀任务标记
支持<LM>、<SC1>-<SC6>等多种前缀标记,实现不同生成任务

模型能力

俄语文本生成
文本降噪
文本补全
文本改写

使用案例

文本生成
故事续写
根据给定开头生成连贯的故事内容
示例中成功续写了库图佐夫将军的故事背景
文本补全
缺失文本恢复
根据上下文补全被遮盖的文本片段
模型正确预测了<extra_id_0>标记处应填入'战斗经历'或'将军之路'