🚀 微调T5摘要生成器模型卡片
本模型是T5基础模型的微调版本,旨在将法律文本总结为简洁的长短摘要。它能够高效处理复杂的法律案件,便于快速洞察和详细分析。
🚀 快速开始
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model_name = "manjunathainti/fine_tuned_t5_summarizer"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
input_text = "Insert a legal case description here."
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
summary_ids = model.generate(input_ids, max_length=150, num_beams=4, length_penalty=2.0)
summary = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
print("Generated Summary:", summary)
✨ 主要特性
- 专为法律案件摘要生成而开发,可处理长法律文档。
- 生成两种类型的摘要:简洁的短摘要用于快速回顾,详细的长摘要用于深入分析。
- 可直接用于总结英文法律案件文本,也能集成到法律文档管理系统和法律研究与合规的AI工具中。
📚 详细文档
模型详情
模型描述
这是为法律案件摘要开发的微调T5摘要生成器的模型卡片。该模型经过专门优化,可处理长法律文档并生成两种类型的摘要:
- 短摘要:用于快速回顾的简洁要点。
- 长摘要:用于深入分析的详细见解。
属性 |
详情 |
开发者 |
Manjunatha Inti |
资助方 |
自筹资金 |
共享者 |
Manjunatha Inti |
模型类型 |
用于摘要生成的微调Transformer模型 |
语言(NLP) |
英语 |
许可证 |
Apache 2.0 |
微调基础模型 |
T5-base |
模型来源
使用方式
直接使用
该模型可直接用于总结法律案件文本,对英文法律文档效果最佳。
下游使用
该模型可集成到以下系统中:
- 法律文档管理系统。
- 用于法律研究和合规的AI工具。
超出适用范围的使用
- 未经额外微调用于非法律文档。
- 用于英语以外语言的摘要生成。
偏差、风险和局限性
偏差
该模型可能反映训练数据中存在的偏差,例如司法管辖区重点或数据集中固有的社会偏差。
风险
- 可能会遗漏关键的法律细节。
- 模型的输出不应替代专业的法律意见。
建议
- 法律专家应始终审查输出结果。
- 避免将其用于需要完全精确的法律任务。
训练数据
- 数据集:Multi-LexSum
- 预处理:使用分词技术对数据集进行预处理,以用于摘要生成任务。
训练过程
预处理
- 对数据集进行分词和截断处理。
- 输入序列上限为1024个标记。
- 摘要限制为:
训练超参数
- 学习率:5e - 5
- 批量大小:1(梯度累积步数:8)
- 训练轮数:3
- 优化器:AdamW
- 精度:混合精度(fp16)
速度、大小、时间
- 训练时间:约4小时
- 检查点大小:约892 MB
- 硬件:NVIDIA Tesla V100
评估
测试数据、因素和指标
- 测试数据:在Multi-LexSum数据集的
validation
分割上进行验证,包含4818个示例。
- 指标:
- bert_score短摘要精度:0.84
- bert_score长摘要精度:0.81
结果
该模型为法律文档生成可靠的短摘要和长摘要,保持连贯性和相关性。
总结
微调后的T5模型在总结法律文档方面表现出色,取得了有竞争力的BERT分数。
模型审查
可解释性
该模型生成人类可读的摘要,对于法律领域的最终用户具有很高的可解释性。
环境影响
- 碳排放 可使用Lacoste等人(2019)中提出的机器学习影响计算器进行估算。
- 硬件类型:NVIDIA Tesla V100
- 使用时长:约4小时
- 云服务提供商:Google Colab
- 计算区域:美国
- 估计碳排放:由于训练时间短,排放量极小。
技术规格
模型架构和目标
- T5架构专为文本到文本任务而设计。
- 此微调模型将T5应用于法律文本摘要生成,利用了序列到序列学习的灵活性。
计算基础设施
- 硬件:NVIDIA Tesla V100
- 软件:Hugging Face Transformers 4.46.3,PyTorch
📄 许可证
本模型使用Apache 2.0许可证。