F

Fairseq Dense 6.7B

由 KoboldAI 开发
这是Artetxe等人论文《Efficient Large Scale Language Modeling with Mixtures of Experts》中原生密集67亿参数模型的Hugging Face transformers适配版
下载量 123
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

一个67亿参数规模的大语言模型,基于Mixtures of Experts架构实现高效的大规模语言建模。

模型特点

大规模参数
具有67亿参数规模,能够处理复杂的语言建模任务
高效架构
采用Mixtures of Experts架构,实现高效的大规模语言建模
Hugging Face适配
已适配Hugging Face transformers框架,便于使用

模型能力

文本生成
语言理解
上下文学习

使用案例

自然语言处理
开放大语言模型评估
在开放大语言模型排行榜上进行综合评估
综合平均得分36.09