T

Tinyllama 1.1B Intermediate Step 1195k Token 2.5T

由 TinyLlama 开发
TinyLlama是一个1.1B参数的小型Llama模型,在3万亿token上预训练,设计用于资源有限的环境。
下载量 419
发布时间 : 12/11/2023
模型介绍
内容详情
替代品

模型简介

TinyLlama项目旨在预训练一个1.1B参数的Llama模型,使用16块A100-40G GPU在90天内完成。模型采用与Llama 2相同的架构和分词器,适用于多种基于Llama的开源项目。

模型特点

高效训练
使用16块A100-40G GPU在90天内完成3万亿token的预训练。
紧凑结构
仅有1.1B参数,适合计算和内存资源有限的应用场景。
兼容性
采用与Llama 2相同的架构和分词器,可即插即用地应用于基于Llama的开源项目。

模型能力

文本生成
语言理解

使用案例

自然语言处理
文本生成
生成连贯的英文文本
语言理解
理解并回答英文问题