L

Legion V2.2 LLaMa 70B

由 TareksTesting 开发
使用 DARE TIES 方法合并的预训练语言模型,基于 L-BASE-V1 融合多个 MERGE 模型
下载量 24
发布时间 : 3/24/2025
模型介绍
内容详情
替代品

模型简介

该模型是通过 mergekit 工具合并多个预训练语言模型的结果,采用 DARE TIES 合并方法,旨在结合各模型的优势提升整体性能。

模型特点

DARE TIES 合并方法
采用先进的 DARE TIES 模型合并技术,有效整合多个模型的参数
模块化权重分配
针对 self_attn 和 mlp 等不同模块分别设置权重参数
参数密度控制
通过 density 参数控制模型参数的保留比例

模型能力

文本生成
语言理解

使用案例

自然语言处理
文本生成
可用于生成连贯、流畅的文本内容
问答系统
应用于构建问答系统,回答用户提出的问题