许可证:apache-2.0
语言:
- 英文
基础模型:
- prithivMLmods/Viper-Coder-v1.6-r999
任务标签:文本生成
库名称:transformers
标签:
- 程序员
- 文本生成推理
- 蝰蛇
- 高效内存
- 千问
- 化学
- 代码
模型索引:
- 名称:Viper-Coder-v1.7-Vsm6
结果:
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:IFEval(零样本)
类型:wis-k/instruction-following-eval
拆分:训练集
参数:
零样本数量:0
指标:
- 类型:指令级严格准确率和提示级严格准确率
值:50.04
名称:平均准确率
来源:
网址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FViper-Coder-v1.7-Vsm6
名称:开放大模型排行榜
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:BBH(三样本)
类型:SaylorTwift/bbh
拆分:测试集
参数:
少样本数量:3
指标:
- 类型:归一化准确率
值:49.53
名称:归一化准确率
来源:
网址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FViper-Coder-v1.7-Vsm6
名称:开放大模型排行榜
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:MATH 5级(四样本)
类型:lighteval/MATH-Hard
拆分:测试集
参数:
少样本数量:4
指标:
- 类型:精确匹配
值:46.45
名称:精确匹配
来源:
网址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FViper-Coder-v1.7-Vsm6
名称:开放大模型排行榜
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:GPQA(零样本)
类型:Idavidrein/gpqa
拆分:训练集
参数:
零样本数量:0
指标:
- 类型:归一化准确率
值:19.57
名称:归一化准确率
来源:
网址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FViper-Coder-v1.7-Vsm6
名称:开放大模型排行榜
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:MuSR(零样本)
类型:TAUR-Lab/MuSR
参数:
零样本数量:0
指标:
- 类型:归一化准确率
值:18.86
名称:归一化准确率
来源:
网址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FViper-Coder-v1.7-Vsm6
名称:开放大模型排行榜
-
任务:
类型:文本生成
名称:文本生成
数据集:
名称:MMLU-PRO(五样本)
类型:TIGER-Lab/MMLU-Pro
配置:主要
拆分:测试集
参数:
少样本数量:5
指标:
- 类型:准确率
值:47.64
名称:准确率
来源:
网址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard#/?search=prithivMLmods%2FViper-Coder-v1.7-Vsm6
名称:开放大模型排行榜

Viper-Coder-v1.7-Vsm6
Viper-Coder-v1.7-Vsm6基于千问2.5 14B模态架构设计,旨在提升编码效率和计算推理能力。该模型针对高效内存使用进行了优化,避免生成冗余文本标记,并在编码、解释性推理、数学问题解决和技术任务中表现卓越。通过使用专用数据集进行微调,提升了代码生成、结构化编程逻辑和问题解决能力。
关键改进
- 编码优化:专注于生成高质量、结构化的代码,减少冗余标记,确保高效执行。
- 内存利用增强:采用高效内存优化技术,降低计算开销并提升性能。
- 卓越推理能力:擅长解决复杂的数学和算法问题,提供逻辑清晰、结构化的解释。
- 长上下文支持:支持高达128K的输入上下文标记,单次输出可生成8K标记,适合详细的编码响应。
- 减少冗余文本:通过最小化不必要的文本响应,确保编码任务的输出更加专注。
快速入门(使用transformers库)
以下代码片段展示了如何使用apply_chat_template
加载分词器和模型并生成内容:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Viper-Coder-v1.7-Vsm6"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "编写一个Python函数来生成斐波那契数列。"
messages = [
{"role": "system", "content": "你是一个高级编程助手。"},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
预期用途
-
代码生成与优化:
为开发者设计,协助编写、重构和优化多种编程语言的代码。
-
算法与数学问题解决:
为计算和数学问题提供精确的解释和解决方案。
-
技术解释与文档生成:
生成清晰、结构化的编码概念、库和API的说明文档。
-
调试辅助:
分析代码片段,检测错误并提供修正建议。
-
教育用途:
帮助学生和学习者分解复杂的编程主题,便于理解。
-
结构化数据处理:
能够分析和生成结构化输出(如JSON、XML和表格),适合数据科学应用。
局限性
-
硬件要求:
由于参数规模大且支持长上下文,需要高内存GPU或TPU。
-
潜在响应偏差:
虽然设计为中立,但输出仍可能反映训练数据中的偏差。
-
创意任务输出不稳定:
在故事生成和非技术主题中可能产生不一致的结果。
-
实时信息缺失:
无法获取训练截止日期后的实时事件信息。
-
长输出中的错误传播:
早期响应中的小错误可能影响长篇代码输出的整体连贯性。
-
提示敏感性:
响应的有效性可能取决于输入提示的结构是否合理。
详细结果请查看此处!
汇总结果请查看此处!
指标 |
值(%) |
平均 |
38.68 |
IFEval(零样本) |
50.04 |
BBH(三样本) |
49.53 |
MATH 5级(四样本) |
46.45 |
GPQA(零样本) |
19.57 |
MuSR(零样本) |
18.86 |
MMLU-PRO(五样本) |
47.64 |