许可证: mit
语言:
- 英文
库名称: transformers
管道标签: 文本生成
标签:
- 心理健康
- BART
- 文本生成推理
简介
MentalBART是MentaLLaMA项目的一部分,该项目是首个开源的、具备指令跟随能力的可解释心理健康分析大语言模型(LLM)系列。该模型基于facebook/bart-large基础模型和完整的IMHI指令微调数据进行微调。
该模型旨在针对多种心理健康状况进行复杂分析,并为每项预测提供可靠解释。
它通过75K条高质量自然语言指令的IMHI数据集进行微调,以提升下游任务性能。
我们在包含20K测试样本的IMHI基准上进行了全面评估,结果表明MentalBART在准确性和生成解释方面表现优异。
伦理考量
尽管MentalBART在可解释心理健康分析中展现出良好性能,但我们强调:
所有预测结果和生成解释仅限用于非临床研究,求助者应寻求专业精神科医生或临床医师的帮助。
此外,近期研究表明大语言模型可能存在潜在偏见(如性别差异),同时某些错误预测、不当解释和过度概括也揭示了当前模型的潜在风险。
因此,将该模型应用于真实场景的心理健康监测系统仍面临诸多挑战。
MentaLLaMA系列其他模型
除MentalBART外,MentaLLaMA项目还包括以下模型:MentaLLaMA-chat-13B、MentaLLaMA-chat-7B、MentalT5。
-
MentaLLaMA-chat-13B:基于Meta LLaMA2-chat-13B基础模型和完整IMHI指令数据微调,训练数据覆盖10项心理健康分析任务。
-
MentaLLaMA-chat-7B:基于Meta LLaMA2-chat-7B基础模型和完整IMHI指令数据微调,训练数据覆盖10项心理健康分析任务。
-
MentalT5:基于T5-large基础模型和完整IMHI-completion数据微调,训练数据覆盖10项心理健康分析任务。该模型虽无指令跟随能力,但更轻量化,在基于补全模式的可解释心理健康分析中表现良好。
使用方法
可通过Hugging Face Transformers库在Python项目中使用MentalBART模型。以下是加载模型的简单示例:
from transformers import BartTokenizer, BartModel
tokenizer = BartTokenizer.from_pretrained('Tianlin668/MentalBART')
model = BartModel.from_pretrained('Tianlin668/MentalBART')
许可证
MentalBART采用MIT许可证,详见MIT文件。
引用
若使用MentalBART,请引用我们的论文:
@misc{yang2023mentalllama,
title={MentalLLaMA: Interpretable Mental Health Analysis on Social Media with Large Language Models},
author={Kailai Yang and Tianlin Zhang and Ziyan Kuang and Qianqian Xie and Sophia Ananiadou},
year={2023},
eprint={2309.13567},
archivePrefix={arXiv},
primaryClass={cs.CL}
}