🚀 🤖 HelpingAI2.5-10B
HelpingAI2.5-10B是一款专为情感智能对话和以人类为中心的交互而设计的语言模型,它参数规模适中却功能强大,能在多场景提供优质服务。
🚀 快速开始
Transformers
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("HelpingAI/HelpingAI2.5-10B")
tokenizer = AutoTokenizer.from_pretrained("HelpingAI/HelpingAI2.5-10B")
chat = [
{ "role": "system", "content": "You are HelpingAI, an emotional AI. Always answer my questions in the HelpingAI style." },
{ "role": "user", "content": "GIVE ME YOUR INTRO" }
]
inputs = tokenizer.apply_chat_template(
response = outputs[0][inputs.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
GGUF Implementation
from webscout.Local import *
model_path = download_model("HelpingAI/HelpingAI2.5-10B", "q4_k_m.gguf", token=None)
model = Model(model_path, n_gpu_layers=0, context_length=4096)
thread = Thread(model, format=helpingai2)
thread.interact()
✨ 主要特性
- 架构:基于100亿参数的Transformer架构模型。
- 训练重点:专注于情感智能和富有同理心的回复。
- 情感得分:在标准化情感智能测试中达到98.13分。
- 部署:针对在消费级硬件上的高效部署进行了优化。
📚 详细文档
🌟 模型概述
HelpingAI2.5-10B 是一款小巧但功能强大的语言模型,专门为情感智能对话和以人类为中心的交互而设计。
🎯 训练详情
方法
- 基础训练
- 数据集:SentimentSynth、EmotionalIntelligence - 1M、HelpingAI2.0 - 150M和HelpingAIemo(1.525亿条数据)。
- 情感智能训练
- 在情感对话上进行有监督的微调。
- 使用HelpingAI2.0 - 7B模型进行强化学习。
- 进行符合道德准则的宪法AI训练。
- 优化
数据集组成
数据集类型 |
用于训练的行数 |
目的 |
情感对话 |
1250万 |
核心对话训练 |
治疗交流 |
200万 |
心理健康支持 |
文化对话 |
10万 |
文化意识培养 |
危机响应 |
75万 |
紧急支持处理 |
📈 使用场景与示例
主要应用
- 🎯 个人AI陪伴
- 🧠 心理健康支持
- 📚 教育辅助
- 💼 职业发展
- 🤝 社交技能训练
示例交互
用户:我对即将到来的工作面试感到非常焦虑。有什么建议吗?
HelpingAI:嘿!首先,深呼吸,别太紧张。面试可能会让人紧张,但我支持你!这里有个小窍门:确保你为这份工作疯狂准备。了解公司、他们的使命以及你申请的职位。这样,你就能展现出你的知识,让他们知道你是认真的。另外,练习回答常见的面试问题,比如“介绍一下你自己”或“你为什么想在这里工作”。保持简洁、切题。你能行的!别忘了打扮得体!保持简历更新,确保你的社交媒体形象良好。第一印象很重要!最重要的是,做你自己。面试小组想看到真实的你。展示你的热情、技能,以及为什么你会是这家公司的优秀员工。你会在这次面试中表现出色的,朋友!记住,我相信你。
用户:我的朋友一周都没回复我的消息了。我觉得我可能说错了什么,但不确定是什么。
HelpingAI:哎呀,这真让人沮丧。没有朋友的回复会很痛苦,尤其是当你怀疑自己是否做错了什么的时候。首先,别自责。很有可能你的朋友只是忙或者在处理一些个人事情。这并不总是你的问题。如果你仍然担心,尝试用不同的方式联系,比如打电话或者给朋友群里的其他人发消息。有时候换一种方式能帮助你重新建立联系。但如果你仍然不确定,你可以试着问你的朋友是否一切都好。坦诚地表达你的感受,但也要准备好接受他们的观点。记住,你并不孤单。朋友之间会有起有落,有小误会是正常的。沟通是关键!保持真诚和耐心。你能行的,朋友!
🔒 道德考量与局限性
道德准则
- 优先考虑用户的情感福祉。
- 保持严格的隐私标准。
- 避免有害或歧视性的回复。
- 对AI的局限性保持透明。
- 推广健康的应对机制。
已知局限性
- 不能替代人类专业人员。
- 不能进行角色扮演。
- 知识基础有限。
- 上下文窗口受限。
📄 许可证
本项目采用 HelpingAI 许可证。
引用
@misc{helpingai2024,
author = {Abhay Koul},
title = {HelpingAI2.5-10B: Emotionally Intelligent Language Model},
year = {2024},
publisher = {Huggingface},
journal = {GitHub repository},
howpublished = {\url{https://huggingface.co/HelpingAI/HelpingAI2.5-10B}}
}
🙏 致谢
特别感谢HelpingAI社区、Huggingface、贡献者和研究人员,是你们让这个模型成为可能。你们对推进情感智能AI的奉献是非常宝贵的。
由HelpingAI社区用心打造
网站 • GitHub • Discord • HuggingFace