L

Linglong 317M

由 AlumiK 开发
LingLong 是一个轻量级中文预训练语言模型,基于 GPT-3 架构构建,参数规模为 3.17 亿,适合计算资源有限的研究者使用。
下载量 27
发布时间 : 5/11/2024
模型介绍
内容详情
替代品

模型简介

LingLong 是由南开大学软件学院训练的中文预训练语言模型,虽然参数规模较小,但在各类自然语言处理任务中展现出卓越性能,适合用于下游研究和微调任务。

模型特点

轻量级
仅包含 3.17 亿参数,计算资源需求低,适合资源有限的研究者使用。
高性能
尽管参数规模较小,但在各类自然语言处理任务中展现出卓越性能。
多语言支持
支持英文和中文两种语言。

模型能力

文本生成
自然语言处理

使用案例

学术研究
下游任务微调
作为基础模型用于微调各类自然语言处理任务。
无需消耗过量计算资源即可开展研究。