E

ERNIE 4.5 21B A3B PT GGUF

由 Mungert 开发
ERNIE-4.5-21B-A3B-PT是基于MoE架构的先进文本生成模型,具有210亿参数和高效的多模态处理能力。
下载量 680
发布时间 : 7/18/2025

模型简介

该模型采用多模态异构MoE预训练技术,专注于文本理解和生成任务,支持长上下文处理(131072 tokens)。

模型特点

多模态异构MoE预训练
采用模态隔离路由和路由正交损失,实现文本和视觉模态的联合训练与相互增强
高效扩展基础设施
使用异构混合并行和分层负载均衡策略,支持FP8混合精度训练和4位/2位无损量化推理
特定模态后训练
通过监督微调(SFT)和统一偏好优化(UPO)方法针对不同应用场景优化模型性能
长上下文支持
支持长达131072 tokens的上下文处理能力

模型能力

文本生成
语言理解
长文本处理
多模态推理(文本+视觉)

使用案例

内容生成
技术文档生成
根据简要提示自动生成技术文档内容
可生成结构清晰的技术说明
智能问答
知识问答系统
构建基于大模型的知识问答应用
能够处理复杂问题并提供详细解答
网络监控
安全审计分析
分析网络日志和安全事件
可识别潜在安全威胁并提供建议
AIbase
智启未来,您的人工智能解决方案智库
简体中文