🚀 审批局合并模型 (Approval Bureau Merged Model)
这个模型是将基础模型 DeepSeek - R1 - Distill - Qwen - 32B 与 approval_bureau_model_lora 适配器合并后的成果,可用于文档审核、文本生成和内容审批等场景,支持中英双语且以中文为主。
🚀 快速开始
使用Transformers加载模型
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_path = "distill/approval-bureau-merged"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto"
)
input_text = "请审核以下文档内容:"
inputs = tokenizer(input_text, return_tensors="pt").to(model.device)
outputs = model.generate(
inputs.input_ids,
max_length=500,
temperature=0.7,
top_p=0.9
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
流式输出示例
from transformers import TextIteratorStreamer
from threading import Thread
streamer = TextIteratorStreamer(tokenizer, skip_special_tokens=True)
generation_kwargs = {
"input_ids": inputs.input_ids,
"max_length": 500,
"temperature": 0.7,
"top_p": 0.9,
"streamer": streamer
}
thread = Thread(target=model.generate, kwargs=generation_kwargs)
thread.start()
for text in streamer:
print(text, end="", flush=True)
⚠️ 重要提示
- 该模型需要较大的GPU内存(推荐至少24GB以上)。
- 对于内存受限的环境,建议使用4 - bit或8 - bit量化。
- 模型输出仅供参考,关键决策请结合人工审核。
✨ 主要特性
- 基于强大的DeepSeek - R1 - Distill - Qwen - 32B架构。
- 融合了审批局专用的LoRA微调层。
- 适用于文档审核、文本生成和内容审批相关场景。
- 保留了基础模型的推理能力,同时增强了特定领域功能。
📦 安装指南
文档未提及安装步骤,故跳过该章节。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_path = "distill/approval-bureau-merged"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto"
)
input_text = "请审核以下文档内容:"
inputs = tokenizer(input_text, return_tensors="pt").to(model.device)
outputs = model.generate(
inputs.input_ids,
max_length=500,
temperature=0.7,
top_p=0.9
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
高级用法
from transformers import TextIteratorStreamer
from threading import Thread
streamer = TextIteratorStreamer(tokenizer, skip_special_tokens=True)
generation_kwargs = {
"input_ids": inputs.input_ids,
"max_length": 500,
"temperature": 0.7,
"top_p": 0.9,
"streamer": streamer
}
thread = Thread(target=model.generate, kwargs=generation_kwargs)
thread.start()
for text in streamer:
print(text, end="", flush=True)
📚 详细文档
模型基本信息
属性 |
详情 |
基础模型 |
DeepSeek - R1 - Distill - Qwen - 32B |
LoRA适配器 |
approval_bureau_model_lora |
模型类型 |
因果语言模型 (Causal Language Model) |
参数规模 |
32B |
语言支持 |
中英双语,以中文为主 |
🔧 技术细节
文档未提及技术实现细节,故跳过该章节。
📄 许可证
本模型使用GPL - 3.0许可证。使用前请确保了解相关许可条款。
致谢
感谢DeepSeek和Qwen团队提供的基础模型,以及所有为模型训练和调优做出贡献的开发者。