B
BART No Extraction V2
由 MikaSie 开发
基于BART微调的长法律文档摘要生成模型,采用多阶段摘要生成方法处理复杂法律文本
下载量 280
发布时间 : 5/24/2024
模型简介
该模型是BART的微调版本,专门用于处理长法律文档的摘要生成。研究采用多阶段方法,先通过抽取式摘要压缩源文本,再由生成式模型生成最终摘要。
模型特点
多阶段摘要生成
结合抽取式和生成式摘要方法,先压缩源文本再生成最终摘要
法律文档优化
专门针对冗长复杂的法律文档进行优化
高性能指标
在EUR-lex-sum数据集上表现出色,ROUGE-1得分达0.459
模型能力
法律文本摘要生成
多阶段文本处理
长文档理解
使用案例
法律文档处理
欧盟法律文档摘要
为欧盟法律文档生成简明摘要
ROUGE-1得分0.459,BERTScore得分0.870
可再生能源法规分析
解析复杂的新能源法规文本
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文