T

Trillion 7B Preview AWQ

由 trillionlabs 开发
Trillion-7B预览版是一款多语言大语言模型,支持英语、韩语、日语和中文,在计算效率和性能表现上优于同类7B规模模型。
下载量 22
发布时间 : 3/20/2025
模型介绍
内容详情
替代品

模型简介

这是Trillion系列大语言模型的先行版本,专注于突破多语言扩展与性能边界,采用RoPE位置编码和SwiGLU激活的Transformer架构。

模型特点

高效计算性能
以约9.3×10²² FLOPs的训练计算量实现66.5%的平均性能表现,显著优于同类7B规模模型
多语言优化
特别优化英语、韩语、日语和中文处理能力,在韩语基准测试中表现突出
长上下文支持
支持4,096 tokens的上下文长度,适合处理长文档和复杂对话
易量化支持
提供GGUF格式和AWQ量化版本,便于在不同硬件上部署

模型能力

多语言文本生成
指令遵循
知识检索
编程辅助
数学推理
逻辑推理
对话系统

使用案例

智能助手
多语言聊天机器人
构建支持英语、韩语、日语和中文的智能对话系统
在KO-MT-Bench韩语对话基准中获得6.27分
教育辅助
语言学习工具
用于生成多语言学习材料和练习题
在Global-MMLU-Lite多语言知识测试中表现优异
开发辅助
代码生成与解释
帮助开发者编写和优化代码
在HumanEval编程基准测试中达到55.48%的pass@1准确率