语言:
- 英语
许可证: Apache-2.0
数据集:
- databricks/databricks-dolly-15k
- Felladrin/ChatML-databricks-dolly-15k
- euclaise/reddit-instruct-curated
- Felladrin/ChatML-reddit-instruct-curated
- THUDM/webglm-qa
- Felladrin/ChatML-WebGLM-QA
- starfishmedical/webGPT_x_dolly
- Felladrin/ChatML-webGPT_x_dolly
- LDJnr/Capybara
- Felladrin/ChatML-Capybara
- Open-Orca/SlimOrca-Dedup
- Felladrin/ChatML-SlimOrca-Dedup
- HuggingFaceH4/ultrachat_200k
- Felladrin/ChatML-ultrachat_200k
- nvidia/HelpSteer
- Felladrin/ChatML-HelpSteer
- sablo/oasst2_curated
- Felladrin/ChatML-oasst2_curated
- CohereForAI/aya_dataset
- Felladrin/ChatML-aya_dataset
- argilla/distilabel-capybara-dpo-7k-binarized
- Felladrin/ChatML-distilabel-capybara-dpo-7k-binarized
- argilla/distilabel-intel-orca-dpo-pairs
- Felladrin/ChatML-distilabel-intel-orca-dpo-pairs
- argilla/ultrafeedback-binarized-preferences
- Felladrin/ChatML-ultrafeedback-binarized-preferences
- sablo/oasst2_dpo_pairs_en
- Felladrin/ChatML-oasst2_dpo_pairs_en
- NeuralNovel/Neural-DPO
- Felladrin/ChatML-Neural-DPO
基础模型: Felladrin/Minueza-32M-Base
任务标签: 文本生成
小部件示例:
- 消息:
- 角色: 系统
内容: 你是一名职业顾问。用户会向你提供一位寻求职业指导的个人,你的任务是根据他们的技能、兴趣和经验,帮助他们确定最适合的职业方向。你还需要研究各种可选的职业路径,解释不同行业的就业市场趋势,并就获取哪些资质对追求特定领域有益提供建议。
- 角色: 用户
内容: 你好!
- 角色: 助手
内容: 嗨!有什么可以帮您的?
- 角色: 用户
内容: 我对从事软件工程职业很感兴趣。你有什么建议吗?
- 消息:
- 角色: 系统
内容: 你是一位知识渊博的助手。请尽可能帮助用户。
- 角色: 用户
内容: 怎样才能变得更健康?
- 消息:
- 角色: 系统
内容: 你是一位乐于助人且富有创意的助手。
- 角色: 用户
内容: 写一个关于奇幻世界中法师的游戏设定。
- 消息:
- 角色: 系统
内容: 你是一位乐于助人的助手,会详细回答用户的问题。
- 角色: 用户
内容: 告诉我社交媒体的优缺点。
- 消息:
- 角色: 系统
内容: 你是一位乐于助人的助手,会以详细和好奇的态度回答用户的问题。
- 角色: 用户
内容: 量子计算有哪些潜在应用?
推理参数:
参数:
最大新标记数: 250
是否采样: 是
温度: 0.65
顶部p值: 0.55
顶部k值: 35
重复惩罚: 1.176
模型索引:
- 名称: Minueza-32M-Chat
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: AI2推理挑战(25样本)
类型: ai2_arc
配置: ARC-挑战
分割: 测试
参数:
少量样本数: 25
指标:
- 类型: 标准化准确率
值: 20.39
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=Felladrin/Minueza-32M-Chat
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: HellaSwag(10样本)
类型: hellaswag
分割: 验证
参数:
少量样本数: 10
指标:
- 类型: 标准化准确率
值: 26.54
名称: 标准化准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=Felladrin/Minueza-32M-Chat
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU(5样本)
类型: cais/mmlu
配置: 全部
分割: 测试
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 25.75
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=Felladrin/Minueza-32M-Chat
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: TruthfulQA(0样本)
类型: truthful_qa
配置: 多项选择
分割: 验证
参数:
少量样本数: 0
指标:
- 类型: mc2
值: 47.27
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=Felladrin/Minueza-32M-Chat
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: Winogrande(5样本)
类型: winogrande
配置: winogrande_xl
分割: 验证
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 50.99
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=Felladrin/Minueza-32M-Chat
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GSM8k(5样本)
类型: gsm8k
配置: 主要
分割: 测试
参数:
少量样本数: 5
指标:
- 类型: 准确率
值: 0.0
名称: 准确率
来源:
网址: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?query=Felladrin/Minueza-32M-Chat
名称: 开放LLM排行榜
Minueza-32M-Chat: 一个拥有3200万参数的聊天模型
推荐的提示格式
<|im_start|>system
{系统消息}<|im_end|>
<|im_start|>user
{用户消息}<|im_end|>
<|im_start|>assistant
推荐的推理参数
do_sample: true
temperature: 0.65
top_p: 0.55
top_k: 35
repetition_penalty: 1.176
使用示例
from transformers import pipeline