F

Fanformer 1B

由 dongyh 开发
FANformer-1B是通过创新周期性机制增强语言建模能力的自回归模型,具有11亿非嵌入参数,训练token量达1万亿。
下载量 114
发布时间 : 3/20/2025
模型介绍
内容详情
替代品

模型简介

增强周期性建模的解码器架构大语言模型,适用于通用文本生成与理解任务。

模型特点

周期性建模增强
通过FAN层创新组件有效捕捉数据中的周期性模式,提升学习效率和性能表现
高效训练
在1万亿token训练量下实现优于同类模型的性能表现
轻量化设计
11亿参数规模在保持性能的同时降低计算资源需求

模型能力

文本生成
语言理解
知识问答
逻辑推理

使用案例

文本生成
学术写作辅助
生成包含周期性概念的科学论述文本
生成连贯性达72.45%的学术风格文本(基于arc_easy测试)
教育应用
科学问答系统
回答STEM领域基础问题
sciq测试集准确率达94.8%