L

Legalbert Large 1.7M 2

由 pile-of-law 开发
基于英语法律和行政文本预训练的RoBERTa模型,专注于法律领域的语言理解任务
下载量 701
发布时间 : 4/29/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于BERT大型架构的transformers模型,使用Pile of Law数据集(约256GB英语法律文本)预训练,适用于法律相关下游任务

模型特点

法律领域专业化
专门针对法律和行政文本进行预训练,包含法律术语和表达方式
RoBERTa预训练目标
采用RoBERTa的掩码语言建模目标,优化了传统BERT的训练方式
大规模训练数据
使用约256GB的Pile of Law数据集进行训练,包含35种法律相关数据源
法律文本优化处理
使用LexNLP句子分割器处理法律引用,优化了法律文本的预处理流程

模型能力

法律文本理解
掩码语言建模
法律文档分析
法律术语识别

使用案例

法律文本处理
法律条款补全
自动补全法律文档中的缺失部分
示例中正确预测'An exception is a request...'等法律术语
法律文档分类
对法律文档进行自动分类
法律研究辅助
法律概念解释
解释法律术语和概念