🚀 引领中医智能化新篇章——“五行心智”智能中医问诊大模型
在人工智能技术飞速发展的当下,为传承和弘扬中医药精髓,腾讯烟台新工科研究院团队深入调研并与中医药学院合作,成功研发出基于 QWEN 的智能中医问诊大模型——“五行心智”。该模型借助十万条量级的问诊数据进行微调,致力于为用户提供更精准、个性化的中医问诊服务。
🚀 快速开始
“五行心智”智能中医问诊大模型将中医五行理论与人工智能技术相融合,通过深度学习、自然语言处理等技术,实现对患者病症的智能分析、诊断以及治疗方案推荐。与传统人工问诊方式相比,它具备以下显著优势:
- 高效便捷:患者只需在手机、电脑等设备上输入症状,系统便能迅速给出诊断结果和治疗方案,节省了排队和等待时间。
- 精准个性化:依托大数据和深度学习技术,该模型能依据患者的年龄、性别、病史等信息,提供更精准、个性化的诊断与建议。
- 全天候服务:可随时随地为患者提供问诊服务,不受时间和地点限制,满足不同场景下患者的需求。
- 智能推荐:在给出诊断结果的同时,会根据患者实际情况推荐合适的中医治疗方案,如中药、针灸、推拿等,助力患者更好康复。
- 持续学习:模型具有持续学习能力,随着数据积累和技术迭代,其诊断准确率和治疗效果将不断提升。
✨ 主要特性
- 融合五行理论:将中医五行理论融入人工智能技术,实现对患者病症的智能分析、诊断和治疗方案推荐。
- 数据驱动微调:利用十万条量级的问诊数据进行微调,提升问诊服务的精准度和个性化程度。
- 多技术支持:借助深度学习、自然语言处理等技术,实现高效的病症分析和诊断。
📦 安装指南
大模型包含 1.8B 版本、7B 版本和 14B 版本,本次开源的是 1.8B 版本,且使用 GPTQ 量化为 int4,支持在消费级显卡上运行。
方便起见,建议按以下步骤克隆 Qwen 的原始存储库完成依赖安装:
git clone https://github.com/QwenLM/Qwen.git
cd Qwen
pip install -r requirements.txt
其次,请确保安装了 autogptq
:
pip install auto-gptq optimum
若硬件支持,可使用 flash-attention
提升推理效率:
git clone https://github.com/Dao-AILab/flash-attention
pip uninstall -y ninja && pip install ninja
cd flash-attention && pip install .
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
tokenizer = AutoTokenizer.from_pretrained("cookey39/Five_Phases_Mindset", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("cookey39/Five_Phases_Mindset", device_map="auto", trust_remote_code=True).eval()
model.generation_config = GenerationConfig.from_pretrained("cookey39/Five_Phases_Mindset", trust_remote_code=True)
model.generation_config.temperature = 0.6
response, _ = model.chat(tokenizer, "你是一位经验丰富中医医生,会根据患者的症状给出诊断和药方/n症状:感冒发热流鼻涕", history=None)
print(response)
🚀 部署
大模型部署请参考 Qwen 官方文档,建议采用 NVIDIA Triton + VLLM 的部署方式,可使推理速度提升三十倍以上。
📄 许可证
本项目采用 GPL - 3.0 许可证。
让我们共同期待“五行心智”智能中医问诊大模型在中医药领域的广泛应用,为传承和发扬我国传统医学文化贡献力量!