T

Tinyllama 1.1B Step 50K 105b

由 TinyLlama 开发
TinyLlama是一个1.1B参数的Llama模型,计划在3万亿token上进行预训练,优化后可在16块A100-40G GPU上90天内完成训练。
下载量 14.41k
发布时间 : 9/1/2023
模型介绍
内容详情
替代品

模型简介

TinyLlama项目旨在预训练一个紧凑的1.1B参数Llama模型,兼容Llama 2架构和分词器,适用于计算和内存资源有限的应用场景。

模型特点

高效训练
通过优化,仅需16块A100-40G GPU即可在90天内完成3万亿token的预训练。
兼容性
完全采用Llama 2相同的架构和分词器,兼容多数基于Llama的开源项目。
紧凑性
仅含1.1B参数,适合计算和内存资源有限的应用场景。

模型能力

文本生成

使用案例

自然语言处理
文本生成
生成连贯的文本内容