L

Legalbert Large 1.7M 1

由 pile-of-law 开发
基于RoBERTa预训练目标,在英语法律和行政文本上预训练的BERT大模型
下载量 120
发布时间 : 4/29/2022
模型介绍
内容详情
替代品

模型简介

该模型采用BERT架构,专门在法律文书堆数据集上预训练,适用于法律相关的自然语言处理任务

模型特点

法律领域专业化
专门在法律和行政文本上预训练,对法律术语有更好的理解
大规模训练数据
使用约256GB的英语法律和行政文本进行预训练
优化的分词器
包含32,000个标记的词汇表,特别包含3,000个法律术语

模型能力

法律文本理解
掩码语言建模
法律文本分类
法律问答

使用案例

法律文书处理
法律术语预测
预测法律文本中的专业术语
如示例中正确预测'appeal'为最可能的填充词
法律文档分析
分析法律文档内容
法律研究辅助
案例检索增强
改进法律案例检索系统