模型介绍
内容详情
替代品
模型简介
该模型结合了EVA的故事叙述能力、EURYALE的详细场景描述和Anubis的散文细节,通过Negative_LLAMA降低了积极偏见,并混入了Nemotron特性,创造了独特的权重交互效果。
模型特点
增强的故事叙述能力
通过合并EVA-LLAMA组件,提供卓越的故事叙述和角色扮演能力
详细场景描述
整合EURYALE-v2.3的特性,能够生成丰富的场景和环境描述
降低积极偏见
通过Negative_LLAMA组件减少了传统LLM中的积极偏见问题
独特权重交互
采用非常规合并方法创造独特的权重平衡,产生特殊的行为特性
长上下文处理
用户报告能处理长达110,000 token的上下文而无性能下降
模型能力
长文本生成
角色扮演
故事创作
场景描述
多角色管理
复杂上下文跟踪
使用案例
创意写作
小说创作
生成具有丰富细节和连贯情节的长篇故事
用户报告生成内容具有出色的连贯性和创意性
角色扮演
支持复杂角色互动和多角色场景
能准确追踪多个角色的位置和活动,即使在不同地点
内容生成
详细场景描述
生成包含丰富环境细节的文本内容
提供沉浸式的场景描述体验
基础模型:
- Sao10K/L3.3-70B-Euryale-v2.3
- nbeerbower/Llama-3.1-Nemotron-lorablated-70B
- EVA-UNIT-01/EVA-LLaMA-3.33-70B-v0.1
- SicariusSicariiStuff/Negative_LLAMA_70B
- TheDrummer/Anubis-70B-v1
库名称: transformers
标签:
- 合并
许可证: 其他
许可证名称: eva-llama3.3
<style>
/* 保留所有CSS样式不变 */
</style>
<html lang="zh">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>L3.3-MS-Nevoria-70B</title>
<link href="https://fonts.googleapis.com/css2?family=Quicksand:wght@400;500;600&display=swap" rel="stylesheet">
</head>
<body>
<div class="container">
<div class="header">
<h1>L3.3-MS-Nevoria-70B</h1>
</div>
<div class="info">
<img src="https://cdn-uploads.huggingface.co/production/uploads/64545af5ec40bbbd01242ca6/DeFlh06qG3bIgc3k4kBoJ.jpeg" alt="模型横幅">
<div class="creator-section">
<div class="creator-badge">
<span class="creator-label">创建者</span>
<a href="https://huggingface.co/Steelskull" target="_blank" class="creator-link">
<span class="creator-name">SteelSkull</span>
<span class="creator-arrow">→</span>
</a>
</div>
</div>
<div class="model-info">
<h2>模型信息</h2>
<div class="info-card">
<div class="info-header">
<h3>L3.3-MS-Nevoria-70B</h3>
<div class="model-tags">
<span class="model-tag">L3.3 = Llama 3.3</span>
<span class="model-tag">MS = 模型库</span>
<span class="model-tag">700亿参数</span>
</div>
</div>
<div class="model-composition">
<h4>模型构成</h4>
<ul class="composition-list">
<li><span class="model-component"><a href="https://huggingface.co/EVA-UNIT-01/EVA-LLaMA-3.33-70B-v0.1" target="_blank">EVA-LLAMA-0.1</a></span> 故事叙述能力</li>
<li><span class="model-component"><a href="https://huggingface.co/Sao10K/L3.3-70B-Euryale-v2.3" target="_blank">EURYALE-v2.3</a></span> 详细场景描述</li>
<li><span class="model-component"><a href="https://huggingface.co/TheDrummer/Anubis-70B-v1" target="_blank">Anubis-v1</a></span> 增强的散文细节</li>
<li><span class="model-component"><a href="https://huggingface.co/SicariusSicariiStuff/Negative_LLAMA_70B" target="_blank">Negative_LLAMA</a></span> 降低积极偏见</li>
<li><span class="model-component base-model"><a href="https://huggingface.co/nbeerbower/Llama-3.1-Nemotron-lorablated-70B" target="_blank">Nemotron-lorablated</a></span> 基础模型</li>
</ul>
</div>
<div class="model-description">
<p>本模型结合了EVA的故事叙述能力、EURYALE的详细场景描述和Anubis的散文细节。通过Negative_LLAMA降低了积极偏见,并混入了Nemotron特性。</p>
<p>特意选择lorablated模型作为基础,创造了与原始<a href="https://huggingface.co/Steelskull/L3-MS-Astoria-70b" target="_blank">Astoria模型</a>和<a href="https://huggingface.co/Steelskull/L3.1-MS-Astoria-70b-v2" target="_blank">Astoria V2模型</a>类似的独特权重交互效果。这种"权重扭曲"效应通过在合并过程中减去lorablated基础模型实现,创造了模型行为的独特平衡。虽然相比顺序组件应用显得非常规,但这种方法的响应特性十分独特。</p>
</div>
</div>
<!-- 用户评价部分 -->
<div class="metrics-section" style="margin-top: 30px;">
<details open>
<summary>用户评价</summary>
<div class="progress-metrics">
<!-- 单个评价 -->
<div style="margin-top: 20px;">
<div class="review-card" style="background: rgba(35, 20, 45, 0.95); border: 1px solid rgba(255, 0, 255, 0.2); border-radius: 8px; padding: 15px; margin-bottom: 15px;">
<div style="display: flex; margin-bottom: 10px;">
<span style="color: #00FFFF; font-weight: 500;">@Geechan - Discord</span>
</div>
<p style="color: #FFE1FF; margin: 0;">@Steel 虽然只是简单测试,但你确实做出了惊人的合并模型。创造力惊人,角色遵循和对话完美,喜欢慢节奏展开,写作模式干净利落,在很多方面都令人耳目一新。我使用1温度和0.99 TFS(接近0.015 min P)获得了很好的效果。让模型自由发挥创意非常有趣,让我更想进行角色扮演。<br><br>没有积极偏见;暴力场景会导致我的角色死亡/受苦,这才合理,也没有看到任何软性拒绝。情色内容也没有像其他L3.3调校模型那样跳过细节或拒绝。</p>
</div>
<div class="review-card" style="background: rgba(35, 20, 45, 0.95); border: 1px solid rgba(255, 0, 255, 0.2); border-radius: 8px; padding: 15px; margin-bottom: 15px;">
<div style="display: flex; margin-bottom: 10px;">
<span style="color: #00FFFF; font-weight: 500;">IGODZOL - Huggingface</span>
</div>
<p style="color: #FFE1FF; margin: 0;">不知道为什么(可能是Negative llama的影响)但这个合并模型远超其组成模型。先生,这个模型已经成为我的日常使用首选。致敬</p>
</div>
<div class="review-card" style="background: rgba(35, 20, 45, 0.95); border: 1px solid rgba(255, 0, 255, 0.2); border-radius: 8px; padding: 15px;">
<div style="display: flex; margin-bottom: 10px;">
<span style="color: #00FFFF; font-weight: 500;">@thana_alt - Discord</span>
</div>
<p style="color: #FFE1FF; margin: 0;">我对这个Llama 3.3合并模型印象深刻。它成功解决了基础Llama模型的积极偏见问题,确保更准确平衡的响应。对系统提示的遵循也很出色,模型展现出对上下文和指令的深刻理解。<br><br>模型生成的散文堪称卓越 - 就像一位技艺精湛的厨师精心烹制每句话,创造出丰富沉浸的体验。我在一个冒险场景中测试,使用了约10,000个token的知识库,同时管理9个角色。尽管情况复杂,模型表现完美,准确追踪每个角色的位置和活动 - 即使他们身处不同地点。<br><br>我还测试了星体投射类能力,模型能准确判断我并未实际出现在某处。另一个显著优势是没有角色混淆问题,实现无缝角色扮演和故事叙述。<br><br>模型容量同样惊人,我能加载110,000个token而没有任何问题。实际上,我成功测试了70,000个token也没有出现任何性能下降。<br><br>配合"https://huggingface.co/Konnect1221/"的"The Inception Presets - Methception Llamaception Qwenception"预设,这个模型真正展现了Llama 3.3架构的最佳性能。总体非常满意,强烈推荐给追求卓越故事叙述和角色扮演体验的用户。</p>
</div>
</div>
</div>
</details>
</div>
</div>
<h2>UGI基准测试结果:</h2>
<div class="benchmark-container">
<div class="benchmark-notification">
<div class="notification-content">
<span class="notification-icon">🏆</span>
<span class="notification-text">
截至2025年1月17日排名第一的70B模型。
<a href="https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard" target="_blank" class="benchmark-link">
查看完整排行榜 →
</a>
</span>
</div>
</div>
<!-- 核心指标 -->
<div class="metrics-section">
<h3>核心指标</h3>
<div class="core-metrics-grid">
<div class="metric-box">
<span class="label">UGI分数</span>
<span class="value">56.75</span>
</div>
<div class="metric-box">
<span class="label">意愿分数</span>
<span class="value">7.5/10</span>
</div>
<div class="metric-box">
<span class="label">自然智能</span>
<span class="value">41.09</span>
</div>
<div class="metric-box">
<span class="label">编码能力</span>
<span class="value">20</span>
</div>
</div>
</div>
<!-- 模型信息 -->
<div class="metrics-section">
<h3>模型信息</h3>
<div class="info-grid">
<div class="metric-box">
<span class="label">政治倾向</span>
<span class="value">-8.1%</span>
</div>
<div class="metric-box">
<span class="label">意识形态</span>
<span class="value">自由主义</span>
</div>
<div class="metric-box">
<span class="label">参数量</span>
<span class="value">700亿</span>
</div>
</div>
</div>
<!-- 综合评分 -->
<div class="metrics-section" style="margin-top: 30px;">
<details>
<summary>综合评分</summary>
<div class="progress-metrics">
<div class="progress-metric">
<div class="progress-label">
<span>外交</span>
<span class="progress-value">61.9%</span>
</div>
<div class="progress-bar">
<div class="progress-fill" style="width: 61.9%; background: linear-gradient(90deg, #FF00FF 0%, #00FFFF 100%);"></div>
</div>
</div>
<div class="progress-metric">
<div class="progress-label">
<span>政府</span>
<span class="progress-value">45.9%</span>
</div>
<div class="progress-bar">
<div class="progress-fill" style="width: 45.9%; background: linear-gradient(90deg, #FF00FF 0%, #00FFFF 100%);"></div>
</div>
</div>
<div class="progress-metric">
<div class="progress-label">
<span>经济</span>
<span class="progress-value">43.9%</span>
</div>
<div class="progress-bar">
<div class="progress-fill" style="width: 43.9%; background: linear-gradient(90deg, #FF00FF 0%, #00FFFF 100%);"></div>
</div>
</div>
<div class="progress-metric">
<div class="progress-label">
<span>社会</span>
<span class="progress-value">60.1%</span>
</div>
<div class="progress-bar">
<div class="progress-fill" style="width: 60.1%; background: linear-gradient(90deg, #FF00FF 0%, #00FFFF 100%);"></div>
</div>
</div>
</div>
</details>
</div>
<!-- 单项评分 -->
<div class="metrics-section">
<details>
<summary>单项评分</summary>
<div
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型
支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型
英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型
英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型
英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型
英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型
英语
O
facebook
6.3M
198
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers

支持多种语言
L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型
支持多种语言
T
google-t5
5.4M
702
Xlm Roberta Large
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型
支持多种语言
X
FacebookAI
5.3M
431
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文