模型简介
模型特点
模型能力
使用案例
🚀 VAGO solutions Llama-3-SauerkrautLM-8b-Instruct
Llama-3-SauerkrautLM-8b-Instruct 是 VAGO Solutions 和 Hyperspace.ai 联合打造的一款模型,它是强大的 meta-llama/Meta-Llama-3-8B-Instruct 的改良版本,与 DPO 对齐,能为用户提供更优质的服务。
🚀 快速开始
模型版本链接
模型 | HF | EXL2 | GGUF | AWQ |
---|---|---|---|---|
Llama-3-SauerkrautLM-8b-Instruct | 链接 | 链接 | 链接 | 即将推出 |
✨ 主要特性
- 联合研发:由 VAGO Solutions 和 Hyperspace.ai 联合打造。
- 语言支持:支持德语和英语两种语言。
- DPO 对齐:与 DPO 对齐,提升模型性能。
- 数据优化:通过输入精心策划的德语数据,显著提升了模型的能力。
📦 安装指南
文档未提供具体安装步骤,暂不展示。
💻 使用示例
基础用法
英文提示模板
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful AI assistant.<|eot_id|><|start_header_id|>user<|end_header_id|>
Input<|eot_id|><|start_header_id|>assistant<|end_header_id|>
德文提示模板
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Du bist ein freundlicher und hilfreicher deutscher KI-Assistent.<|eot_id|><|start_header_id|>user<|end_header_id|>
Input<|eot_id|><|start_header_id|>assistant<|end_header_id|>
高级用法
德文输出示例
Prompt: Erkläre mir die Vorteile für das Fine-Tuning von Meta's LLama Modellen.
Antwort:
Sehr gern!
Fine-tuning von Meta's LLaMA-Modellen ist eine sehr effektive Möglichkeit, um Ihre Anwendung oder Ihr Projekt mit einer hochentwickelten Sprachverarbeitung auszustatten.
Die Vorteile des Fine-Tunings von LLaMA-Modellen sind:
Adaptation an spezielle Aufgaben: Durch das Fine-Tuning können Sie die Modelle auf Ihre speziellen Bedürfnisse und Anforderungen anpassen.
Dies ermöglicht es Ihnen, die Leistung der Modelle in Ihren Anwendungen zu verbessern.
Verbesserte Genauigkeit: Die fine-tuned Modelle lernen, sich an die spezifischen Merkmale Ihres Datenbestands anzupassen, was zu einer besseren Genauigkeit bei der Textklassifizierung, -generierung, -summarisierung usw. führt.
Anpassung an Branche oder Domain: Wenn Sie beispielsweise ein Medizinprojekt haben, können Sie die Modelle auf medizinische Fachterminologie und -konzepte trainieren, um eine höhere Präzision bei der Analyse medizinischer Texte zu erzielen.
Kosten-Effektivität: Im Vergleich zum Training neuer Modelle von Grund auf kann das Fine-Tuning viel kosteneffektiver sein, da Sie nur einen kleinen Teil des Trainingsdatums benötigen, um die Modelle an Ihre spezifischen Anforderungen anzupassen.
Schnellere Entwicklung: Das Fine-Tuning ermöglicht es Entwicklern, schnell neue Funktionen und Features in ihre Anwendungen einzufügen, ohne dass sie lange warten müssen, bis neue Modelle trainiert werden.
Bessere Interpretierbarkeit: Da die fine-tuned Modelle auf Ihre spezifischen Daten bestimmt wurden, können Sie leichter verstehen, warum bestimmte Entscheidungen getroffen werden, was wichtig ist, wenn es um Transparenz und Verantwortlichkeit geht.
Insgesamt bietet das Fine-Tuning von LLaMA-Modellen eine flexible und effektive Möglichkeit, um Ihre Anwendungen und Projekte durch die Integration von fortschrittlichen Sprachmodellen zu verbessern.
📚 详细文档
模型详情
属性 | 详情 |
---|---|
模型类型 | Llama-3-SauerkrautLM-8b-Instruct 是基于 meta-llama/Meta-Llama-3-8B-Instruct 的微调模型 |
语言 | 德语、英语 |
许可证 | meta-llama |
联系方式 | VAGO solutions,Hyperspace.ai |
训练过程
- 该模型采用两阶段 DPO 微调进行训练,第一阶段使用 70k 数据训练 1 个周期,第二阶段使用 20k 数据再训练 1 个周期。
- LaserRMT 版本即将推出。
🔧 技术细节
文档未提供具体技术细节,暂不展示。
📄 许可证
META LLAMA 3 社区许可协议
Meta Llama 3 版本发布日期:2024 年 4 月 18 日
“协议”指本协议中规定的使用、复制、分发和修改 Llama 材料的条款和条件。
“文档”指 Meta 在 https://llama.meta.com/get-started/ 上分发的随 Meta Llama 3 附带的规格、手册和文档。
“被许可方”或“您”指您,或您的雇主,或任何其他个人或实体(如果您代表该个人或实体签订本协议),该个人或实体需达到适用法律、规则或法规要求的提供法律同意的年龄,并且如果您代表其签订本协议,具有约束您的雇主或该其他个人或实体的法律权力。
“Meta Llama 3”指 Meta 在 https://llama.meta.com/llama-downloads 上分发的基础大语言模型以及软件和算法,包括机器学习模型代码、训练好的模型权重、推理启用代码、训练启用代码、微调启用代码和上述内容的其他元素。
“Llama 材料”指根据本协议提供的 Meta 专有 Meta Llama 3 和文档(及其任何部分)的统称。
“Meta”或“我们”指 Meta Platforms Ireland Limited(如果您位于欧洲经济区或瑞士,或者如果您是一个实体,您的主要营业地位于欧洲经济区或瑞士)和 Meta Platforms, Inc.(如果您位于欧洲经济区或瑞士以外)。
-
许可权利和再分发
- a. 权利授予。您被授予一项非排他性、全球性、不可转让且免版税的有限许可,可根据 Meta 在 Llama 材料中体现的知识产权或其他权利,使用、复制、分发、拷贝、创作衍生作品并对 Llama 材料进行修改。
- b. 再分发和使用
- i. 如果您分发或提供 Llama 材料(或其任何衍生作品),或使用其中任何材料的产品或服务,包括另一个人工智能模型,您应 (A) 随任何此类 Llama 材料提供本协议的副本;并且 (B) 在相关网站、用户界面、博客文章、关于页面或产品文档上显著显示“Built with Meta Llama 3”。如果您使用 Llama 材料创建、训练、微调或以其他方式改进一个人工智能模型,并进行分发或提供该模型,您还应在任何此类人工智能模型名称的开头包含“Llama 3”。
- ii. 如果您作为集成最终用户产品的一部分从被许可方处接收 Llama 材料或其任何衍生作品,则本协议第 2 条不适用于您。
- iii. 您必须在您分发的所有 Llama 材料副本中,在作为此类副本一部分分发的“通知”文本文件中保留以下归属声明:“Meta Llama 3 已根据 Meta Llama 3 社区许可获得许可,版权所有 © Meta Platforms, Inc. 保留所有权利。”
- iv. 您对 Llama 材料的使用必须遵守适用的法律法规(包括贸易合规法律法规),并遵守 Llama 材料的可接受使用政策(可在 https://llama.meta.com/llama3/use-policy 上获取),该政策特此通过引用并入本协议。
- v. 您不得使用 Llama 材料或 Llama 材料的任何输出或结果来改进任何其他大语言模型(不包括 Meta Llama 3 或其衍生作品)。
-
额外商业条款。如果在 Meta Llama 3 版本发布日期,被许可方或其关联方提供的产品或服务在前一个日历月的月活跃用户数超过 7 亿,则您必须向 Meta 请求许可,Meta 可自行决定是否授予您许可,并且在 Meta 另行明确授予您此类权利之前,您无权行使本协议下的任何权利。
-
保修免责声明。除非适用法律要求,否则 Llama 材料及其任何输出和结果均按“现状”提供,不提供任何形式的保证,Meta 否认所有形式的保证,无论是明示的还是暗示的,包括但不限于所有权、不侵权、适销性或特定用途适用性的任何保证。您独自负责确定使用或再分发 Llama 材料的适当性,并承担使用 Llama 材料及其任何输出和结果相关的任何风险。
-
责任限制。在任何情况下,Meta 或其关联方均不对因本协议引起的任何利润损失或任何间接、特殊、后果性、偶发性、惩戒性或惩罚性损害承担责任,无论责任理论如何(包括合同、侵权、疏忽、产品责任或其他),即使 Meta 或其关联方已被告知此类损害的可能性。
-
知识产权
- a. 本协议未授予商标许可,关于 Llama 材料,除非为合理和惯常描述及再分发 Llama 材料所需,或如本节 5(a) 所述,Meta 和被许可方均不得使用对方或其任何关联方拥有或关联的任何名称或标记。Meta 在此授予您仅为遵守第 1.b.i 条最后一句所需使用“Llama 3”(“标记”)的许可。您将遵守 Meta 的品牌指南(目前可在 https://about.meta.com/brand/resources/meta/company-brand/ 上获取)。因您使用标记而产生的所有商誉均归 Meta 所有。
- b. 鉴于 Meta 对 Llama 材料及其为 Meta 制作的衍生作品的所有权,就您制作的 Llama 材料的任何衍生作品和修改而言,在您和 Meta 之间,您是且将是此类衍生作品和修改的所有者。
- c. 如果您对 Meta 或任何实体提起诉讼或其他程序(包括在诉讼中的交叉索赔或反诉),声称 Llama 材料或 Meta Llama 3 的输出或结果,或上述任何内容的任何部分,构成侵犯您拥有或可许可的知识产权或其他权利,则本协议授予您的任何许可应自提起此类诉讼或索赔之日起终止。您将赔偿并使 Meta 免受因您使用或分发 Llama 材料而引起的或与之相关的任何第三方索赔。
-
期限和终止。本协议的期限将自您接受本协议或访问 Llama 材料时开始,并将持续有效,直至根据本协议的条款和条件终止。如果您违反本协议的任何条款或条件,Meta 可终止本协议。本协议终止后,您应删除并停止使用 Llama 材料。第 3、4 和 7 条在本协议终止后仍然有效。
-
适用法律和管辖权。本协议将受加利福尼亚州法律管辖并依其解释,不考虑法律选择原则,《联合国国际货物销售合同公约》不适用于本协议。加利福尼亚州的法院对因本协议引起的任何争议具有专属管辖权。
Meta Llama 3 可接受使用政策
Meta 致力于促进其工具和功能(包括 Meta Llama 3)的安全和公平使用。如果您访问或使用 Meta Llama 3,即表示您同意本可接受使用政策(“政策”)。本政策的最新版本可在 https://llama.meta.com/llama3/use-policy 上找到。
禁止使用
我们希望每个人都能安全、负责任地使用 Meta Llama 3。您同意您不会使用或允许他人使用 Meta Llama 3 进行以下行为:
- 违反法律或他人权利,包括:
- 参与、促进、生成、促成、鼓励、策划、煽动或进一步实施非法或违法活动或内容,例如:
- 暴力或恐怖主义
- 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容,或未报告儿童性虐待材料
- 人口贩运、剥削和性暴力
- 向未成年人非法分发信息或材料,包括淫秽材料,或未对此类信息或材料采用法律要求的年龄限制
- 性招揽
- 任何其他犯罪活动
- 参与、促进、煽动或便利对个人或群体的骚扰、虐待、威胁或欺凌
- 参与、促进、煽动或便利在就业、就业福利、信贷、住房、其他经济福利或其他基本商品和服务的提供方面的歧视或其他非法或有害行为
- 从事未经授权或无执照的任何专业实践,包括但不限于金融、法律、医疗/健康或相关专业实践
- 在未获得适用法律要求的权利和同意的情况下,收集、处理、披露、生成或推断个人的健康、人口统计或其他敏感个人或私人信息
- 从事或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为,或生成此类内容,包括使用 Llama 材料的任何产品或服务的输出或结果
- 创建、生成或便利创建恶意代码、恶意软件、计算机病毒,或进行任何可能禁用、使负担过重、干扰或损害网站或计算机系统的正常运行、完整性、操作或外观的其他操作
- 参与、促进、生成、促成、鼓励、策划、煽动或进一步实施非法或违法活动或内容,例如:
- 参与、促进、煽动、便利或协助策划或开展对个人造成死亡或身体伤害风险的活动,包括与以下方面相关的 Meta Llama 3 使用:
- 军事、战争、核工业或应用、间谍活动,用于受美国国务院维护的《国际武器贸易条例》(ITAR)管制的材料或活动
- 枪支和非法武器(包括武器开发)
- 非法药物和受管制/受控物质
- 关键基础设施、运输技术或重型机械的运营
- 自我伤害或伤害他人,包括自杀、自残和饮食失调
- 任何旨在煽动或促进对个人的暴力、虐待或任何身体伤害的内容
- 故意欺骗或误导他人,包括与以下方面相关的 Meta Llama 3 使用:
- 生成、促进或进一步实施欺诈或创建或促进虚假信息
- 生成、促进或进一步传播诽谤性内容,包括创建诽谤性声明、图像或其他内容
- 生成、促进或进一步分发垃圾邮件
- 在未经同意、授权或合法权利的情况下冒充他人
- 声称使用 Meta Llama 3 或其输出是人类生成的
- 生成或便利虚假的在线互动,包括虚假评论和其他虚假在线互动方式
- 未向最终用户适当披露您的人工智能系统的任何已知危险
请通过以下方式之一报告本政策的任何违反行为、软件“漏洞”或其他可能导致违反本政策的问题: - 报告模型问题:https://github.com/meta-llama/llama3 - 报告模型生成的风险内容:developers.facebook.com/llama_output_feedback - 报告漏洞和安全问题:facebook.com/whitehat/info - 报告违反可接受使用政策或未经授权使用 Meta Llama 3 的情况:LlamaUseReport@meta.com
额外信息
额外信息字段:
- 名字:文本输入
- 姓氏:文本输入
- 出生日期:日期选择器
- 国家:国家选择
- 所属机构:文本输入
- 地理位置:IP 定位
通过点击下方的“提交”,我接受许可协议的条款,并确认我提供的信息将根据 Meta 隐私政策 进行收集、存储、处理和共享。
额外按钮内容:提交
评估
开放大语言模型排行榜
使用 lm-evaluation-benchmark-harness 0.4.2 进行评估
指标 | 值 |
---|---|
平均值 | 74.57 |
ARC (25-shot) | 74.66 |
HellaSwag (10-shot) | 89.60 |
MMLU (5-shot) | 66.55 |
TruthfulQA (0-shot) | 66.32 |
Winogrande (5-shot) | 80.98 |
GSM8K (5-shot) | 69.29 |
MT-Bench 英文评估
########## 第一回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 1 8.15625
########## 第二回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 2 7.65
########## 平均值 ##########
score
model
Llama-3-SauerkrautLM-8b-Instruct 7.903125 *
- 由于特定的指令训练,英文 MT-Bench 得分略低于原始的 LLama-3-8B-Instruct
MT-Bench 德文评估
########## 第一回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 1 7.675
########## 第二回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 2 7.6375
########## 平均值 ##########
score
model
Llama-3-SauerkrautLM-8b-Instruct 7.65625
德文 RAG 大语言模型评估
修复后的结果:https://github.com/huggingface/lighteval/pull/171
| Task |Version|Metric|Value| |Stderr|
|------------------------------------------------------|------:|------|----:|---|-----:|
|all | |acc |0.910|± |0.0084|
|community:german_rag_eval:_average:0 | |acc |0.910|± |0.0084|
|community:german_rag_eval:choose_context_by_question:0| 0|acc |0.928|± |0.0082|
|community:german_rag_eval:choose_question_by_context:0| 0|acc |0.824|± |0.0120|
|community:german_rag_eval:con
免责声明
文档未提供具体免责声明内容,暂不展示。
联系信息
合作信息
文档未提供具体合作信息,暂不展示。
致谢
文档未提供具体致谢内容,暂不展示。



