🚀 Mistral-7B-Banking
Mistral-7B-Banking是基于mistralai/Mistral-7B-Instruct-v0.2微调的模型,专为银行领域定制。它能够精准回答问题,助力用户完成各类银行交易。
🚀 快速开始
Mistral-7B-Banking模型专为银行领域的聊天机器人、虚拟助手和副驾驶的创建而设计,是Bitext两步式大语言模型微调方法的第一步,能为客户提供快速准确的银行相关需求解答。
✨ 主要特性
📦 安装指南
暂未提供相关安装步骤内容。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model = AutoModelForCausalLM.from_pretrained("bitext/Mistral-7B-Banking-v2")
tokenizer = AutoTokenizer.from_pretrained("bitext/Mistral-7B-Banking-v2")
messages = [
{"role": "system", "content": "You are an expert in customer support for Banking."},
{"role": "user", "content": "I want to open a bank account"},
]
encoded = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encoded.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
📚 详细文档
模型架构
此模型采用MistralForCausalLM
架构和LlamaTokenizer
,在保留基础模型核心能力的同时,针对银行相关交互进行了专门优化。
训练数据
该模型在一个包含各种银行相关意图的数据集上进行了微调,这些意图包括余额查询、转账、贷款申请等交易,总共89种意图,每种意图约有1000个示例。这种全面的训练使模型能够有效处理广泛的银行相关问题。该数据集遵循与我们在Hugging Face上发布的bitext/Bitext-customer-support-llm-chatbot-training-dataset相同的结构化方法,但侧重于银行领域。
训练过程
超参数
属性 |
详情 |
优化器 |
AdamW |
学习率 |
0.0002,采用余弦学习率调度器 |
训练轮数 |
3 |
批次大小 |
4 |
梯度累积步数 |
4 |
最大序列长度 |
8192个标记 |
环境
属性 |
详情 |
Transformers版本 |
4.43.4 |
框架 |
PyTorch 2.3.1+cu121 |
分词器 |
Tokenizers 0.19.1 |
预期用途
- 推荐应用:该模型旨在作为Bitext两步式大语言模型微调方法的第一步,用于创建银行领域的聊天机器人、虚拟助手和副驾驶,为客户提供有关银行需求的快速准确答案。
- 不适用范围:此模型不适用于非银行相关问题,也不应用于提供健康、法律或关键安全建议。
局限性和偏差
- 该模型针对银行特定上下文进行训练,在不相关领域可能表现不佳。
- 训练数据中可能存在的偏差会影响回复的中立性,建议用户批判性地评估回复。
伦理考量
谨慎使用这项技术至关重要,确保在必要时不取代人类判断,尤其是在敏感的金融情况下。
致谢
该模型由Bitext使用专有数据和技术开发和训练。
📄 许可证
Mistral-7B-Banking模型由Bitext Innovations International, Inc.根据Apache License 2.0许可。此开源许可证允许免费使用、修改和分发该模型,但要求对Bitext给予适当的认可。
Apache 2.0许可证要点
- 许可权限:允许用户自由使用、修改和分发此软件。
- 归属要求:使用此模型时,必须按照原始版权声明和许可证的规定,对Bitext Innovations International, Inc.给予适当的认可。
- 专利授权:许可证包含模型贡献者授予的专利权利。
- 无担保声明:模型“按原样”提供,不提供任何形式的保证。
您可以在Apache License 2.0查看完整的许可证文本。这种许可方式确保了模型可以广泛自由地使用,同时尊重Bitext的知识产权贡献。有关使用此许可证的更详细信息或具体法律问题,请参考上述链接的官方许可证文档。